summary
stringlengths
0
86.6k
text
stringlengths
0
949k
qu’elle est quelquefois décevante, que c’est un fantôme qui ne se montre à nous un instant que pour fuir sans cesse, qu’il faut la poursuivre plus loin et nous demandons si l’illusion n’est pas non seulement plus consolante, mais plus fortifiante aussi ; car c’est elle qui nous donne la confiance. mots, que je réunis ainsi sous un même nom deux objets qui n’ont rien de sont les mêmes raisons qui nous les font aimer et parce que ce sont les mêmes raisons qui nous les font redouter. Mais si l’on a peur de la science, c’est surtout parce qu’elle ne peut nous Évidemment non, elle ne peut pas nous le donner, et l’on La vérité qu’il nous est permis d’entrevoir n’est pas tout à fait ce que mathématiciens eux-mêmes ne se ressemblent pas entre eux ; les uns ne que nous les trouvons commodes, mais je n’ai guère parlé que de l’espace, dont on aurait pu se passer à la rigueur ; et même, n’est-il pas à craindre que miracles ; mais la merveille éternelle c’est qu’il n’y ait pas sans cesse des Cette conquête de la Loi, c’est à l’Astronomie que nous la devons, et c’est ce qui fait la grandeur de cette Science, plus encore que la grandeur Science ; elles sont allées jusqu’à dire que la Loi, que le fait scientifique lui- Non, les lois scientifiques ne sont pas des créations le verrons, ce ne peut être que l’harmonie exprimée par des lois C’est donc cette harmonie qui est la seule réalité objective, la seule Ce n’est pas la matière qu’ils traitent qui leur impose l’une ou l’autre appelle les autres géomètres, cela n’empêche pas que les uns restent analystes, même quand ils font de la Géométrie, tandis que les autres sont nature même de leur esprit qui les fait logiciens ou intuitifs, et ils ne Ce n’est pas non plus l’éducation qui a développé en eux l’une des deux Je voudrais citer des exemples et certes ils ne manquent pas ; mais pour est une vérité que nous croyons connaître par intuition directe, c’est bien Klein : il étudie une des questions les plus définira une fonction dont les singularités seront précisément celles qui sont illustres ; ce sont ceux des deux savants qui ont fondé la théorie générale conceptions est une image que nul ne peut oublier dès qu’il en a compris le Science ; les logiciens, comme les intuitifs, ont fait de grandes choses que de leur temps, nous reconnaîtrions que beaucoup de ces vieux géomètres intuitifs sont restés les mêmes ; mais leurs lecteurs ont exigé d’eux plus de que cette proposition qui nous est imposée par la logique. n’auraient pas manqué de dire : « Il est évident que toute fonction continue Et alors il est clair que nous pourrons toujours nous représenter ces deux peuvent présenter les fonctions quand on entend ce mot dans le sens le plus ne se seraient sans doute pas produites, et peut-être pourrait-on ainsi, même C’est là d’abord que les logiciens ont dû porter leurs efforts. les philosophes nous diront que c’est là une illusion. L’intuition n’est pas forcément fondée sur le témoignage des sens ; les imaginaire ; ce qui est vrai de l’hyperbole dont les asymptotes sont réelles, comme une de ses conceptions les plus hardies, et cependant ce principe ne ainsi dire, sur les procédés des sciences expérimentales ; nous avons enfin l’intuition du nombre pur, celle d’où est sorti le second des axiomes que plus haut par des exemples ; mais qui doutera sérieusement de la troisième, Les philosophes font encore une autre objection : « Ce que vous gagnez qui répond à cette définition est bien le même que l’intuition vous a fait différentes, mais que l’on n’avait pas distinguées tout d’abord. mathématiquement, mais elle ne peut pas l’être, pas plus que ne peuvent Est-ce à dire qu’il n’y a rien à retenir de cette objection des Ce n’est pas cela que je veux dire ; en devenant rigoureuse, la démonstration n’est pas la Science tout entière et que l’intuition doit réalité, beaucoup plus intéressante que celle des éléments isolés, et un les unes après les autres et qu’on aura constaté que chacune d’elles est n’y pas rencontrer d’obstacles ; mais, de tous ces chemins, quel est celui qui raison intime qui fait de cette série de coups successifs une sorte de tout Voyons ce qui est arrivé, par exemple pour l’idée de fonction continue. qui reproduisait pour ainsi dire toutes les lignes de l’image primitive ; nous par quel caprice toutes ces inégalités se sont échafaudées de cette Il n’y a là, il est vrai, que de la silice, mais, ce qui est intéressant, c’est la C’est ainsi que les anciennes notions intuitives de nos pères, même C’est par ce procédé que les analystes ont fait progresser la Science et si Nous voyons donc déjà que les analystes ne sont pas simplement des beaucoup plus cachées ; souvent il faut pour les découvrir une perspicacité Les analystes, pour ne pas laisser échapper ces analogies cachées, c’est- d’esprits et que tous les mathématiciens sont des intuitifs, du moins ceux L’abîme qui les sépare est-il moins profond qu’il ne paraît d’abord ? Reconnaîtrait-on avec un peu d’attention que cette intuition pure elle-même C’est elle qui leur permet non seulement de démontrer, mais encore d’un édifice logique, et cela sans que les sens paraissent intervenir. Pour les analystes, il y aura donc des inventeurs, mais il y en aura peu. M. Hermite, par exemple, que je citais tout à l’heure, ne peut être classé parmi les géomètres qui font usage de l’intuition sensible ; mais il n’est pas Quand nous disons que deux faits conscients sont simultanés, nous souvenirs dans le temps, mais nous savons qu’il reste des cases vides. Mais ce n’est pas tout ; dans cette forme nous voulons faire rentrer non Bien plus, nous voulons y faire rentrer les faits physiques, ces je ne sais quoi dont nous peuplons l’espace et que nulle De quel droit voulons-nous les faire entrer dans un même 2° Pouvons-nous réduire à une même mesure des faits qui se passent Les personnes qui croient posséder cette intuition sont dupes d’une Quand je dis, de midi à une heure, il s’est écoulé le même temps que de n’aura que celui que je voudrai bien lui donner, par une définition qui On admet, par une définition nouvelle substituée à celle qui est tirée Cependant les astronomes ne se sont pas contentés encore de cette sont imparfaits, mais il suffit que nous puissions concevoir un instrument Le malheur est que cette rigueur ne s’y rencontre pas. servons du pendule pour mesurer le temps, quel est le postulat que nous C’est que la durée de deux phénomènes identiques est la même ; ou, si et β sont simultanés, de même que les effets α′ et β′. Car l’expérience nous apprendrait que la première durée αα′ est égale à αα′ fussent égales entre elles, de même que les deux durées ββ′. Dans ces conditions, il est clair que les causes qui ont produit un certain la loi de Newton, serait plus petite que celle qui est déduite des temps doit être défini de telle façon que la loi de Newton et celle des forces La loi de Newton est une vérité d’expérience ; comme telle elle n’est qu’approximative, ce qui montre que nous n’avons encore qu’une définition Si nous supposons maintenant que l’on adopte une autre manière de De sorte que la définition implicitement adoptée par les astronomes peut En d’autres termes, il n’y a pas une manière de mesurer le temps qui soit De deux horloges, nous n’avons pas le droit de dire que l’une marche bien et que l’autre marche mal ; nous pouvons dire seulement qu’on a différentes ; quand je dis qu’ils sont simultanés, qu’est-ce que je veux dire ? cette étoile n’ont peut-être pas d’habitants, quand je dis que ce phénomène Il suffit d’un peu de réflexion pour comprendre que toutes ces faire rentrer dans un même cadre tant de mondes impénétrables les uns aux Nous voulons au moins que l’on puisse concevoir une intelligence également présents et qu’il n’y aurait pas de temps pour elle. Et cependant quand nous parlons du temps, pour tout ce qui se passe en cherché à faire rentrer tous les phénomènes physiques dans un même cadre. Mais cela ne peut passer pour une définition de la simultanéité, puisque On a dit aussi que deux faits doivent être regardés comme simultanés que cette définition ne saurait convenir pour deux faits physiques qui se produisent à de grandes distances l’un de l’autre, et que, en ce qui les concerne, on ne comprend même plus ce que peut être cette réversibilité ; J’écris une lettre ; elle est lue ensuite par l’ami à qui je l’ai adressée. Bien que ces deux faits se passent dans des mondes impénétrables, je l’image sonore subie par ma conscience, parce que je crois qu’il en est la C’est donc par la cause que nous définissons le temps ; mais le plus souvent, quand deux faits nous apparaissent liés par une relation constante, C’est alors par le temps que nous définissons la cause. quelconque, j’infère que cette conséquence n’est pas immédiate ; mais qu’il que c’est B qui est la cause de C, puisqu’on voit toujours B se produire il n’y a pas de raison pour que cet ordre soit interverti. directement les phénomènes physiques B et C ; ce que nous connaissons, ce si toutes les parties de l’univers sont solidaires dans une Pour ne pas nous perdre dans cette infinie complexité, faisons une Jupiter et Saturne ; mais, pour plus de simplicité, regardons-les comme les vitesses des trois corps à un instant donné suffisent pour déterminer l’instant t et Saturne à l’instant t + a, par des lois aussi précises que celle de Mais passons à des exemples moins artificiels ; pour nous rendre particulier que sa vitesse est la même dans toutes les directions. pourrait être contredit par elle, si les résultats des diverses mesures n’étaient n’ait pas lieu et que les petites discordances qui peuvent se produire été accepté par tout le monde ; ce que je veux retenir, c’est qu’il nous différente de celle que nous avions énoncée plus haut. Les faits observés ne pourraient-ils pas tout aussi bien s’expliquer si on Seulement on serait conduit à remplacer la loi de Newton par une autre plus Ainsi on adopte pour la vitesse de la lumière une valeur telle que les lois pour être rigoureux, il faudrait faire encore une petite correction par un n’en subsiste pas moins à notre point de vue, qui est celui d’une définition Nous choisissons donc ces règles, non parce qu’elles sont vraies, mais l’égalité de deux durées, doivent être définies de telle sorte que l’énoncé des aborder, telles que celles qui se rapportent au nombre des dimensions. Toutes les géométries que j’envisageais avaient ainsi un fond commun, ce différenciait que par les figures qu’on y traçait ou quand on prétendait le indifféremment l’un ou l’autre des deux espaces, de même que sur une des angles est égale à deux droites ; mais nous connaissons également des triangles curvilignes dont la somme des angles est plus petite que deux L’existence des uns n’est pas plus douteuse que celle des autres. Il est évident que l’expérience ne peut résoudre une pareille question ; que je n’ai pas le droit de donner le nom de droites aux côtés des triangles quand nous disons que la droite euclidienne est une vraie droite et que la droite non-euclidienne n’est pas une vraie droite, nous voulons dire tout Mais comment jugeons-nous que cet objet est euclidienne est plus remarquable que la droite non-euclidienne, c’est avant alors si nous transportons une de ces soi-disant droites sans la déformer, elle dont les géomètres euclidiens disent qu’ils ne sont pas accompagnés de droites les côtés des triangles non-euclidiens ; on a démontré seulement que Maintenant quand nous disons que les mouvements euclidiens sont les vrais mouvements sans déformation, que voulons-nous dire ? dire simplement qu’ils sont plus remarquables que les autres ; et pourquoi inversement ; et de plus que les coordonnées d’un point soient des fonctions appelleront droite, ce sera notre droite euclidienne ; mais ce que les ponctuelle qui fait passer de notre monde au leur ; les droites de ces hommes ne seront pas nos droites, mais elles auront entre elles les mêmes euclidien n’est pas une forme imposée à notre sensibilité, puisque nous euclidien, soit l’espace lobatchewskien, de même que nous pouvons, en y une ligne le point B est entre les points A et C, on se contentera de cette Les mêmes questions qui se posaient à propos des vérités de la Nous ne pouvons pas admettre à la fois qu’il est impossible d’imaginer Nous n’avons pas besoin d’observation pour savoir que l’aiguille d’une d’avance qu’il n’y en a que 12, et nous ne pourrions pas regarder à la des objections les plus graves qu’on peut diriger contre eux, de celle qui et, par exemple, si l’on voit que l’espace ne peut avoir ni deux ou moins de l’expérience brute, d’où une contradiction intolérable que l’on a levée par Le continu physique est pour ainsi dire une nébuleuse non résolue, les peut pas être discerné d’un autre élément du même continu, si ce nouvel appartenant tous à ce même continu C et tels que chacun d’eux est quelconques A et B du continu C, nous pourrons dire que ce continu C est bien être tous discernables les uns des autres, ou former eux-mêmes un ou quitter C et sans rencontrer les coupures ; dans le second cas cela est toujours le premier cas qui se présente, nous dirons que C reste d’un seul qu’il ne reste pas d’un seul tenant ; dans cette dernière hypothèse nous dirons alors qu’il est divisé par les coupures. coupures un certain nombre d’éléments tous discernables les uns des autres, on dit que ce continu est à une dimension ; si au contraire pour diviser un plusieurs continus à une dimension, nous dirons que C est un continu à deux dimensions au plus, nous dirons que C est un continu à trois Pour justifier cette définition, il faut voir si c’est bien ainsi que les lignes, et ils affirment que le même processus ne peut être poussé plus loin. C’est bien la même idée ; pour diviser l’espace, il faut des coupures que l’on appelle surfaces ; pour diviser les surfaces il faut des coupures que l’on appelle lignes ; pour diviser les lignes, il faut des coupures que l’on appelle n’est pas un continu ; alors les lignes, qu’on peut diviser par des coupures qui ne sont pas des continus, seront des continus à une dimension ; les surfaces que l’on peut diviser par des coupures continues à une dimension, seront des continus à deux dimensions, enfin l’espace que l’on peut diviser applicable non au continu mathématique, mais au continu physique, qui est l’espace, que dans tout ce qui tombe sous nos sens, nous retrouvons les nous apprend à faire des distinctions parmi les continus d’un même nombre dimensions de la même façon que le continu physique à une dimension voulons dire que l’ensemble des points de l’espace satisfait à la définition que nous venons de donner du continu physique à trois dimensions. savons trop bien que nous croyons n’avoir pas besoin de le définir. la règle que j’ai exposée plus haut et par laquelle on peut reconnaître le nombre de ses dimensions, nous devons nous appuyer sur ce fait que deux La question est de savoir si le point que je me représentais il y a une de dire que le point A qu’occupait cet objet au début de cette seconde est relative de cet objet par rapport à notre corps a varié ; si les impressions que nous cause cet objet n’ont pas changé, nous serons enclins à juger que cette position relative n’a pas changé non plus ; si elles ont changé, nous relative d’un objet par rapport à notre corps est ou non restée la même. Si maintenant nous voyons que deux objets ont conservé leur position relative par rapport à notre corps, nous concluons que la position relative de ces deux objets l’un par rapport à l’autre n’a pas changé ; mais nous chose que nous connaissions directement c’est la position relative des objets Savons-nous cette fois ce que c’est qu’un point dans l’espace, mais uniquement de se représenter les sensations musculaires occuper la même position relative par rapport à nous, les impressions que au même point, c’est simplement parce qu’il faut faire les mêmes mouvements pour les atteindre ; à part cela, on ne voit pas bien ce qu’ils de cette solution, si on veut faire intervenir par exemple les sensations jugeons-nous que toutes ces représentations si différentes les unes des rapportons tous les points de l’espace, et que ce système d’axes est comme Comme il n’en est pas ainsi, nous devons, avant de rapporter les objets Les mouvements que nous imprimons à nos membres ont pour effet de d’autres causes peuvent également les faire varier ; mais nous sommes et nous les discernons facilement pour deux raisons : 1° parce qu’ils sont Ainsi nous répartissons naturellement les changements que peuvent Nous observons ensuite que parmi les changements externes, il y en a une nouvelle distinction, parmi les changements externes : ceux qui peuvent remplacé celle du bleu ; nos sens ont éprouvé les mêmes impressions qui se regardés par nous comme très différents ; le premier est un déplacement, le ne puis pourtant pas dire que le vert soit au jaune comme le rouge est au bleu ; comment alors suis-je conduit à juger que les deux sphères ont subi le au bord B de la rétine ; je jugerai que ces deux objets ont subi le même mouvement parce que j’ai éprouvé les mêmes sensations musculaires. Envisageons maintenant les changements internes, c’est-à-dire ceux qui sont produits par les mouvements volontaires de notre corps et qui sont autre, mais en conservant la même attitude ; toutes les parties de ce corps n’est plus la même, que par exemple mes bras qui tout à l’heure étaient un changement externe, et que les autres ne le peuvent pas ou du moins ne quelqu’un qui saurait déjà la géométrie, mais il ne faut pas en conclure qu’il Mais pour faire la distinction entre les deux sortes de extérieur se soit déplacé ; si nous voulons que les diverses parties de notre les unes par rapport aux autres. d’espace, parce que nous n’aurions plus intérêt à classer les changements cette condition ou qu’il ne sera pas, je ne puis pas dire non plus que Bien que les impressions motrices aient, comme je viens de l’expliquer, conscience de ses mouvements, nous n’aurions pu reconnaître que ces deux Pour lever cette difficulté, n’envisageons que des sensations de même nature, des sensations rouges, par exemple, ne différant les unes des autres visuelles possibles, pour réunir dans une même classe toutes les sensations jamais songé, si je n’avais pas appris d’avance, par le moyen que nous de ces sensations formera une sorte de coupure que j’appellerai C, et il est clair que cette coupure suffit pour diviser l’ensemble des sensations rouges d’une troisième dimension, et nous permet dans une certaine mesure de donc regardées comme identiques que si elles sont accompagnées d’une Si alors nous formons une nouvelle coupure C′′ avec toutes celles des une dimension (pour le moins) ; alors C′ en aurait deux, C trois et l’espace Va-t-on dire alors que c’est l’expérience qui nous apprend que l’espace a trois dimensions, puisque c’est en partant d’une loi expérimentale que nous allons-nous dire qu’il suffit de mettre des bésicles pour que l’espace ait quatre dimensions et que l’opticien qui les a construites a donné une Évidemment non, tout ce que nous pouvons dire c’est que l’expérience nous a appris qu’il est commode d’attribuer à Le véritable espace est l’espace moteur et c’est celui que nous et nous nous sommes demandé d’abord ce que c’est qu’un continu physique voisins l’un de l’autre, et que nos sens sont trop grossiers pour que nous puissions les distinguer) et nous constatons de plus que deux de ces appartenant tous au continu C, de telle façon que A et B soient les deux C sont reliés entre eux, nous dirons que C est d’un seul tenant. dont un élément est indiscernable d’un des éléments de la coupure (nous dirons que ce sont celles qui coupent la coupure) et celles dont tous les qui relient A à B coupent la coupure, nous dirons que A et B sont séparés deux éléments qui soient séparés par la coupure, nous dirons que la coupure Ces définitions posées, si le continu C peut être divisé par des coupures un continu physique, qui soit pour ainsi dire équivalent à l’espace, de telle infini, et nous ne pouvons nous représenter que des continus physiques et Les divers éléments de l’espace, que nous appelons points, que nous sachions discerner les éléments les uns des autres, au moins s’ils notre corps (que nous devons toujours supposer ramené à une même J’ai rappelé ensuite quelle est l’origine de la distinction que nous faisons Parmi les changements qui se produisent dans nos impressions, nous dimensions n’est pas le même, il est seulement apparenté à l’espace. Comment savons-nous maintenant que ce continu des déplacements a coupures elles-mêmes par d’autres coupures du second ordre qui sont demander pourquoi l’espace à trois dimensions nous est beaucoup plus Comme je l’ai expliqué, il ne s’agit pas de comparer les positions des impressions que j’attribuais à l’objet A m’étaient transmises les unes par j’attribue à l’objet B me sont transmises, les unes par cette même fibre du Doit-on supposer, pour prendre par exemple les sensations visuelles, que A sensations me sont transmises par une même fibre rétinienne, a est serait cette identité, dis-je, qui nous avertirait que toutes ces sensations me préférer d’autres notablement plus compliquées, il est certain que nous B me sont transmises à l’instant β par ces mêmes fibres tant optiques que S’il en est ainsi, nous n’hésiterons pas à déclarer que le point occupé O, il n’est pas nécessaire que les points M et M′ coïncident : comme la vue Cette condition que les deux objets forment leur image en O est donc nécessaire, mais non suffisante pour que les points M et M′ coïncident. Mais nous qui ne savons pas encore la géométrie, nous ne pouvons raisonner comme cela ; tout ce que nous pouvons faire, c’est de constater remplie sans que le soit la seconde, qui est relative au toucher, mais que la seconde ne peut pas être remplie sans que la première le soit. contraire ne peut pas l’être sans que celle du toucher le soit. s’il en était ainsi, nous conclurions que c’est le toucher qui peut s’exercer à Mais ce n’est pas tout ; jusqu’ici j’ai supposé que pour déterminer la Il y a des chances pour que l’objet A n’ait pas raisonner de la sorte, mais nous constatons que cette prévision se réalise les autres le soient, mais il ne suffit pas que le critère relatif à l’œil le soit. avons vu que pour engendrer cet espace, il faut faire intervenir les d’accommodation ; que si ces deux dernières n’étaient pas toujours nous sont transmises par une même fibre rétinienne, bien que ces Comment savons-nous que les rétine, comment savons-nous, dis-je, que ces impressions ont quelque chose mouvements de l’œil qui nous ont appris qu’il y a la même relation entre la B. Ils nous ont montré en effet que les mêmes mouvements, correspondant c’est que je n’aie pas bougé entre les instants α et β. pareilles séries S et S′ comme inverses l’une de l’autre parce que nous Si alors mon sens musculaire m’avertit que j’ai bougé entre les deux conclurai encore, tout comme si je n’avais pas bougé, que les points cette comparaison est la série Σ des sensations musculaires qui ont sont pas distincts dans deux cas : 1° si Σ est identique à Σ′ ; 2° si Σ′ = Σ + S Si, dans tous les autres cas, nous dimensions que l’ensemble des séries Σ distinctes, c’est-à-dire beaucoup continu à trois dimensions, mais que si on regarde deux séries Σ et Σ′ série σ est donc une de celles qui correspondent à des mouvements où le sensations distinctes ; car sans que le doigt bouge, le corps peut prendre une n’est en effet qu’après avoir fait cette distinction que nous pourrons être souvent que quand nous avons exécuté les mouvements qui correspondent à ces séries σ de sensations musculaires, les sensations tactiles qui nous sont J’ai dit plus haut qu’il arrive souvent que les séries σ n’altèrent pas les n’ai pas dit toujours ; c’est ce que nous exprimons dans notre langage pas bougé, à la condition que l’objet A qui était au contact de ce doigt n’ait donner cette explication ; tout ce que nous pouvons faire, c’est de constater Mais il suffit qu’elle persiste souvent pour que les séries σ nous dans une même classe les séries Σ et Σ + σ, et de là à ne pas les regarder précède, nous ne connaissons les points de l’espace ou plus généralement la situation finale de notre corps, que par les séries de sensations musculaires nous révélant les mouvements qui nous ont fait passer d’une certaine Mais il est clair que cette situation révélés par nos sensations musculaires ; mais rien ne nous fait connaître la situation initiale ; rien ne peut nous la faire distinguer de toutes les autres Nous sommes donc amenés à comparer les deux continus C et C′ correspondra à Σ′ et Σ′ + σ′ si σ′ est une série qui ne fait pas bouger le doigt Ce qui nous fait donc distinguer les séries σ et σ′ c’est que les premières n’altèrent pas les impressions tactiles éprouvées par le doigt D et que les Ce qui veut dire que la série S + σ + S′, conservant les impressions tactiles du doigt D′ est l’une des séries que j’ai appelées σ′. l’on prend une série σ′ quelconque, S′ + σ′ + S sera une des séries que nous c’est-à-dire entre les deux points qui correspondent aux deux séries S + Σ + Or nous allons voir que cette condition est remplie. ou encore Σ + S + S′ + Σ′ = Σ + Σ′ ; mais il ne s’ensuit pas que l’on ait S + Σ succession n’est pas indifférent : nous ne pouvons donc, comme dans Cela posé, pour que Σ et Σ′ correspondent à un même point M = M′ du Mais nous venons de constater que S + σ + S′ était une des séries σ′. ce qui veut dire que les séries S + Σ′ + S′ et S + Σ + σ′ correspondent à un doigt D ; et de même il arrive souvent, mais non toujours, que la série σ′ au point N du second espace, c’est que ces deux points sont identiques. Ce que nous venons de dire de l’identité des deux espaces tactiles nous faits, il y a une chose que nous ne devons pas oublier et sur laquelle j’ai Je sais bien qu’il est aisé de s’en tirer et que, si les faits ne se vérifient pas, on l’expliquera aisément en disant que les objets extérieurs ont bougé. suffisent pour nous avertir que les propriétés de l’espace ne sont pas des En résumé, l’expérience ne nous prouve pas que l’espace a trois dimensions ; elle nous prouve qu’il est commode de lui en attribuer trois, parce que c’est ainsi que le nombre des coups de pouce est réduit au mécaniques, par exemple, autrement que dans l’espace à trois dimensions ? ne pourrions nous représenter une figure dans l’espace, c’est-à-dire la partie dans le tout, sans nous représenter le tout, et cela est impossible, puisque ce tout est infini ; 2° parce que ces espaces sont l’un et l’autre des continus possible d’imaginer que, les résultats des expériences relatées plus haut convergence des yeux ; ou bien que les expériences dont nous avons parlé une expérience, on imagine par cela même les deux résultats contraires Sont-ce ces associations (ou du moins celles d’entre elles que nous qu’on ne peut pas dire que la sensation ne peut entrer dans la conscience Je ne puis comprendre non plus qu’on dise que l’idée de temps est représenter, au sens propre du mot, pour les raisons que j’ai dites. Pourquoi a-t-on dit que toute tentative pour donner une quatrième idées de ces séries sont associées entre elles dans une trame très complexe, cette classification est beaucoup plus compliquée que cela, mais cela suffira que je sois enfermé dans une chambre entre les six parois infranchissables bouger ; et alors les parois que nous supposons en repos absolu seront en relatif ne peut pas être quelconque, quand des objets sont en repos, leur mouvement relatif par rapport à des axes quelconques est celui d’un corps c’est l’expérience qui nous a appris les lois du mouvement d’un solide C’est elle qui lui donne les indications rôle que jouent dans sa genèse les séries de sensations musculaires. des séries qui peuvent se répéter, et c’est de leur répétition que vient le pour cela que l’espace est relatif. montré que ces canaux sont nécessaires à notre sens d’orientation ; mais les dans un des canaux tout entier, tandis que, physiologiquement, ce qui varie, peuvent nous faire connaître les nerfs des canaux, c’est la différence de pression sur les deux extrémités d’un même canal, et par là : indication qui est de beaucoup la plus importante ; sans doute parce que les mouvements que nous avons exécutés, et cela au même titre que les ou de la série Σ, nous aurions dû dire, non que c’étaient des séries de sensations musculaires seulement, mais que c’étaient des séries à la fois de suffiraient pas cependant ; car elles ne peuvent nous renseigner que sur les mathématiques et si ces délicates constructions que nous tirons tout entières Parmi les personnes qui font cette question, je dois faire une distinction ; pour avoir le temps de les acquérir, il faut négliger l’art et la science qui D’ailleurs, une science uniquement faite en vue des applications est Ils nous concéderaient sans doute que ces monuments valent bien la Mais ce n’est pas tout : elles ont un but philosophique et, j’ose le dire, t-elle pas le caractère esthétique, bien que les sens n’y prennent aucune mais n’est-ce pas ce qui arrive pour les arts les plus nobles ? C’est pourquoi je n’hésite pas à dire que les mathématiques méritent d’être cultivées pour elles-mêmes et que les théories qui ne peuvent être Toutes les lois sont donc tirées de l’expérience ; mais pour les énoncer, Et ce n’est pas une chose indifférente qu’une langue bien faite ; pour ne C’est lui qui nous a enseigné à nommer du même nom des êtres qui ne diffèrent que par la matière, à nommer du même nom par utilisés par les physiciens anglais, bien des personnes n’y verraient sans que les apparences séparent, ils nous auraient déjà rendus plus aptes à Voilà les services que le physicien doit attendre de l’analyse, mais pour que cette science puisse les lui rendre, il faut qu’elle soit cultivée de la mouvement, les deux lois ne diffèrent que par la forme ; on passe de l’une à une expérience nouvelle qui est venue les infirmer. les vecteurs se sont introduits dans l’analyse, c’est par la théorie des physiquement aucun rapport ni apparent, ni réel, de telle sorte que les lois Ainsi les analogies mathématiques, non seulement peuvent nous faire ne tarderait pas à se lasser, nous entraînerait sans doute bien loin les uns des choisir entre les problèmes qui se présentaient en foule ; elle nous en a Pour la suivre, nous devons prendre des chemins que c’est en comparant les aspects différents des choses que nous pourrons en C’est le monde extérieur qui nous a imposé le continu, que nous avons Voilà ce que nous devons au continu et par conséquent à la nature Mais elle peut prendre bien des formes ; car une pareille équation ne suffit sans elles, nous ne connaîtrions pas les équations aux dérivées partielles. ce n’est pas une corvée qu’ils nous imposent, c’est nous au contraire qui l’occasion de résoudre des problèmes ; elle nous aide à en trouver les J’ai parlé plus haut de l’équation de Laplace que l’on rencontre dans une foule de théories physiques fort éloignées les unes des autres. que se sont faites toutes les découvertes importantes ? Combien de vérités que les analogies physiques nous permettent de pressentir et que nous ne sommes pas en état d’établir par un raisonnement La physique, d’autre part, ne nous fournit pas seulement des solutions ; elle nous fournit encore, dans une certaine mesure, des raisonnements. Il est vrai que les raisonnements de ce genre ne sont pas rigoureux, au semble qu’il ne peut y avoir deux rigueurs, que la rigueur est ou n’est pas, et que, là où elle n’est pas, il ne peut y avoir de raisonnement. Or les nombres que le physicien mesure par l’expérience ne lui sont discontinue, et en même temps elle diffère aussi peu que l’on veut d’une Il peut toujours raisonner comme si toutes les fonctions qui est une des sciences qui coûtent le plus cher : le moindre instrument coûte C’est elle qui nous montre combien Mais ce que je voudrais vous montrer avant tout, c’est à quel point parce que c’est elle qui nous a fait une âme capable de comprendre la bien, nous admettrons que ces nuages sont phosphorescents et qu’ils faire des hypothèses, une hypothèse de plus ne nous coûtera pas davantage. C’est que les astres ne nous envoient pas seulement cette lumière visible et grossière qui frappe nos yeux de chair, c’est d’eux aussi que nous vient et exigeants, et, pour agir sur le monde, il cherchait à se les concilier par des qu’elle ne peut récuser, parce que ce sont les siennes ; ces lois, nous ne lui Croit-on que, sans les leçons des astres, sous le ciel perpétuellement Et d’abord, c’est l’Astronomie qui nous a appris qu’il y a des lois. bien vu que cette multitude de points lumineux n’est pas une foule confuse régulier, lui aussi obéit à des lois immuables, mais elles sont plus que la risée du vulgaire ; ne voyons-nous pas que, même de nos jours, les des lois, mais que ces lois sont inéluctables, qu’on ne transige pas avec approximatives, c’est parce que nous les connaissons mal. déterminent que les grands traits des phénomènes. Mais ces lois ne sont-elles pas locales, variables d’un point à l’autre, comme celles que font les hommes ; ce qui est la vérité dans un coin de Il n’est pas jusqu’à la simplicité de cette loi qui ne soit une leçon pour nous ; que de phénomènes compliqués contenus dans les deux lignes de son C’est donc l’Astronomie qui nous a montré quels sont les caractères C’est encore ainsi que pensait Kepler lui-même quand, par d’absurde, mais elle eût été stérile, puisque ce n’est pas ainsi que la Nature C’est Newton qui nous a montré qu’une loi n’est qu’une relation Toutes les autres lois, découvertes depuis, ne sont pas autre C’est elle aussi qui nous a le mieux appris à nous défier des apparences. Les anciens croyaient que tout était fait pour l’homme, et il faut croire même, c’est ce que ne peut faire celui qui rapporte tout à lui-même. que la Terre n’est qu’une des plus petites planètes du Système solaire, et que le Système solaire, lui-même, n’est qu’un point imperceptible dans les Ciel, mais pour connaître la Terre elle-même ; et cela n’était pas aussi facile et nous ne comprenons plus ces scrupules qui arrêtaient nos devanciers et c’est parce que nous avons vu le Ciel Avais-je tort de dire que c’est l’Astronomie qui nous a fait une âme ceux qui n’estiment que les applications pratiques. je ne dis pas : la Science est utile, parce qu’elle nous apprend à construire des machines ; je dis : les machines sont utiles, parce qu’en travaillant pour Mais enfin il n’est pas indifférent de remarquer qu’entre les deux points de Ne venons-nous pas de voir que c’est par l’Astronomie que, pour n’étaient pas dus à quelque hasard qui aurait rapproché des atomes plus ténus pour en construire l’édifice plus complexe que les chimistes nomment maintenant qu’il n’en est rien, que les lois de notre chimie sont des lois qu’elle pouvait leur donner, et maintenant que le Ciel nous a procuré les Après ce que nous venons de dire, est-il Peut-être même les astres nous apprendront-ils un jour quelque chose être à croire que la Nature obéit au caprice, et nous croupirions encore dans sont les questions que nous sommes forcés de soulever, en abordant Nous sommes assurés que la malade n’en mourra pas et même mais séparées par des distances tellement immenses qu’elles ne nous montrer tous les détails des corps qu’étudie le physicien, le spectacle que Là aussi nous verrions des points matériels séparés les uns des autres par fonction de la distance n’est peut-être pas la loi de Newton, mais c’est une et Maxwell, Maxwell lui-même, ne dit-il pas quelque part que les atomes Parmi les théories de cette époque, une seule fait exception, celle de l’écheveau compliqué que nous donnent nos sens ; qu’il faut avancer pas à vouloir brûler les étapes, mais ils croient que quand on arrivera à ces Cette conception n’a pas non plus été inutile ; elle nous a rendu un pour ainsi dire et immuable ; ou bien c’était comme un modèle que la Une loi, pour nous, ce n’est plus cela du tout ; certains principes généraux qui ont précisément pour objet de nous toutes les parties nous sont profondément cachées ; mais en observant le de ce principe, tirer des conclusions qui resteront vraies quels que soient les peu à peu avec ces divers principes, qui nous a habitués à les reconnaître Les cadres ne se sont donc pas brisés parce qu’ils étaient élastiques ; mais ils se sont élargis ; nos pères, qui les avaient établis, n’avaient pas l’énergie qui est en cause ; tous les autres principes sont également en C’est le seul qui ne se présente pas comme une conséquence immédiate de Or, il n’en est pas ainsi dans la Nature, et c’est mais celui qui l’a vu le plus nettement, dans un livre trop peu lu parce qu’il c’est parce que nos yeux sont trop grossiers que nous ne distinguons pas les que nous attendions longtemps le concours des circonstances qui il a vu bientôt que les corps inanimés ne dansaient pas avec moins d’ardeur cette explication est insoutenable, que les mouvements deviennent d’autant plus vifs que les particules sont plus petites, mais qu’ils ne sont pas atomes en mouvement, mais ils ne bougent pas parce que ces chocs sont très nombreux et que la loi du hasard veut qu’ils se compensent ; mais les Je sais bien ce qu’on va dire, ce n’est pas sa vitesse absolue que l’on Ne voit-on pas que du principe ainsi compris on ne pourra plus rien tirer ? mais à une condition, c’est que les deux stations soient fixes. contraire, la durée de la transmission ne sera pas la même dans les deux translation uniforme, ou plutôt c’est ce qui arriverait pour les composantes ces corps se repoussent, mais en même temps, si tout est entraîné dans une électrostatique et la répulsion totale est plus faible que si les deux corps Mais comme, pour mesurer cette répulsion, nous devons l’équilibrer par une autre force, et que toutes ces autres forces sont réduites agissent donc les uns sur les autres, mais cette action n’est pas directe, elle il envoie de l’énergie dans tous les sens ; mais nous est rempli, non seulement d’éther, mais d’air, ou même, dans les espaces peut supposer aussi que les mouvements de la matière proprement dite sont toujours la faculté d’imaginer des mouvements hypothétiques qui les Mais s’il peut tout expliquer, c’est qu’il ne nous permet de rien prévoir, il ne nous permet pas de choisir entre les différentes hypothèses avec des vitesses, plus petites sans doute que celle de la lumière, mais qui Il y a bien encore une ressource : les éléments ultimes des corps sont des Et ce n’est pas seulement un principe qu’il s’agit de sauver, ce sont les Eh bien, ainsi que nous uniforme ; ce n’est pas assez, il ne suffit pas que cela ait lieu pour les forces réelles, il faut encore qu’il en soit de même pour les forces d’inertie ; il faut une translation au même degré que les masses électromagnétiques des les masses électrodynamiques ; elles ne peuvent donc pas être constantes. C’est pourquoi j’ai dit plus haut que les expériences sur les entraîné lui-même dans une translation dont il ne se doute pas, aucune servirait pas des mêmes horloges qu’un observateur fixe, mais bien fait plus de bruit que les précédents et il est dans toutes les mémoires. c’est bien court, mais vous voyez que nous sommes du moins certain d’être — Et pourtant ces doutes, est-il bien vrai que dire ce n’est pas seulement la physique expérimentale qui les a fait naître, la expérimentateurs qui ont vu le radium dégager de l’énergie, mais ce sont les Ainsi au lieu de supposer que les corps en mouvement subissent une contraction dans le sens du mouvement et que cette contraction est la même quelle que soit la nature de ces corps et les forces auxquelles ils sont On pourrait imaginer, par exemple, que c’est l’éther qui se matériel qui le pénètre, que, quand il est ainsi modifié, il ne transmet plus nous fournisse un jour des données sur ce point ; c’est elle, en somme, qui a C’est du moins ce qui est vrai en première approximation, mais il n’en serait pas tout à fait la même pour toutes les Étoiles, et que les différences est peut-être beaucoup plus grande que sa vitesse relative par rapport au l’aberration ; Michelson nous a montré, je vous l’ai dit, que les procédés Quoiqu’il en soit, les données que l’Astronomie nous fournira dans ce être abordée par bien des côtés, mais parmi les chemins qui y conduisent, il mais on n’est pas entré plus avant ; pourquoi les raies du spectre sont-elles Les lois sont plus simples, mais elles sont de toute autre nature et pour De cela on n’a pas encore rendu compte, et je crois que c’est là un des C’est là une tentative fort intéressante, mais pas encore tout à fait pourquoi les électrons ne se comportent pas comme la matière qui nous est tous ces efforts échouent, et, tout compte fait, je ne le crois pas ; que faudra- que je voudrais vous faire remarquer ; ce n’est pas l’explication qui tend aujourd’hui à prévaloir, mais c’est une de celles qui ont été proposées. peut élever que des constructions éphémères qu’elle est bientôt forcée de Je vous ai montré que, dans la seconde physique mathématique, celle des peut-être est-ce la théorie cinétique des gaz qui va prendre du nous apparaissaient comme simples ne seraient plus que les résultantes d’un très grand nombre de faits élémentaires que les lois seules du hasard Peut-être aussi devrons-nous construire toute une mécanique nouvelle serait vraie pour les vitesses qui ne seraient pas très grandes, de sorte qu’on pas à regretter d’avoir cru aux principes, et même, comme les vitesses trop dire, pour terminer, que nous n’en sommes pas là et que rien ne prouve La Science n’est faite que de conventions, et c’est uniquement à cette nominalisme ; tout n’est pas faux dans cette théorie ; il faut lui réserver son « le discours », se condamne par cela même à être intransmissible, c’est une science et pour elle, il n’y a pas de doute ; par définition, pour ainsi dire, C’est ainsi que les hommes, désireux de se divertir, ont institué des d’action, c’est que nous savons qu’elles réussissent, du moins en général. démenties par l’événement ; cela prouve que la science est imparfaite et si le progrès est lent, mais continu, de sorte que les savants, quoique de plus plus souvent qu’on ne croit, que les comètes jouaient parfois des tours aux astronomes, que les savants, qui apparemment sont des hommes, ne De ce qu’elle est « vécue », c’est-à-dire de ce que nous l’aimons et qui sont les bonnes, bien que notre foi soit moins vive, parce qu’elles On ne peut même pas dire que l’action soit le but de la science ; devons- Peut-être, dit-il (je crois bien que c’était là une concession), n’est-ce pas Toujours est-il que ce n’est pas un fait pourrai les corriger que par une étude approfondie de leurs causes. n’est pas entre ces deux subdivisions que la distance sera la moins grande ; En un sens c’est la première qui est le seul vrai fait brut, et la plus que d’un nombre fini de termes pour exprimer les nuances en nombre exprime bien les impressions que j’éprouve en assistant à une éclipse ; mais Il n’en serait pas de même pour une proposition décret que je porte, ce n’est pas une constatation qui s’impose à moi. et si l’on me demande si le fait que je constate rentre ou ne rentre pas dans postulats qui sont des conventions, un théorème ne peut plus être que vrai n’est plus au témoignage de mes sens que j’aurai recours, mais bien au L’énoncé d’un fait est toujours vérifiable et pour la vérification nous C’est parce que j’admets une loi rendu compte que je pourrais exprimer par le même énoncé deux faits aussi En conclura-t-on que les faits de la vie quotidienne sont l’œuvre des maintenant que, par impossible, la loi que nous croyions vraie, ne le soit pas On pourra dire à la rigueur que le second, c’est nous Mais si nous pouvons dire que le fait en question est faux, n’est-ce pas C’est même pour cela qu’ils Mais j’ai ainsi épuisé ma puissance ; je ne puis pas faire que cette Si des faits nous passons aux lois, il est clair que la part de la libre Toutes les fois que la condition ne sera pas Il est clair que si les lois se réduisaient à cela, elles ne pourraient servir à Ce ne serait évidemment pas la première fois que les Dira-t-on que, si nous ne connaissons pas sur la Terre un corps qui ne fonde pas à 44° tout en ayant les autres propriétés du phosphore, nous ne alors est une loi qui peut être vraie ou fausse, mais qui ne se réduit plus à gravitation n’est pas la seule force qui agisse sur les astres et qu’il vient s’y gravitation est la seule force qui agisse sur les astres. C’est grâce à ces artifices que par un nominalisme inconscient, les pouvons supposer rigoureuse et qui est le principe ; et une autre entre C et est clair que si toutes les lois avaient été transformées en principes, il ne et une loi, mais il est bien clair par là que, si loin que l’on pousse cette L’expérience nous fait connaître des relations entre les corps ; c’est là le entre A′ et B′, et par deux autres relations qui nous font connaître que les nous ajouterons ensuite que le corps A, qui diffère toujours très peu de A′, nous avons maintenant deux lois qui expriment les relations de A et A′ ; de B que nous avons remplacée par une relation entre deux figures A′ et B′ ; C’est pour cela que la géométrie est si précieuse. Et alors qu’on ne vienne pas dire : mais c’est la preuve que la géométrie est une science expérimentale ; en séparant ses principes de lois d’où on les Les autres sciences ont également des principes et cela ainsi dire est moins grand, on n’a plus de raison de les séparer de la Puisque l’énoncé de nos lois peut varier avec les conventions que nous adoptons, que ces conventions peuvent modifier même les relations mêmes lois que nous, mais ils les énonceraient d’une manière toute deux énoncés, mais c’est parce que ces êtres ne diffèrent pas encore assez de parler ; pas plus que nous ne pouvons construire une phrase qui soit Mais nous avons des règles fixes qui comprendre les Allemands même sans avoir appris l’allemand, mais c’est C’est possible, mais j’observerai d’abord que ce peu d’humanité qui formules ; c’est ce qui est arrivé par exemple pour la loi de Mariotte. Prenons la loi de la gravitation qui est la moins imparfaite de toutes les Elle nous permet de prévoir les mouvements des planètes. beaucoup plus grande que celle de tous les astres connus et dont l’action distances que son influence soit restée jusqu’ici insensible pour nous, elle par une autre plus approchée et plus probable, que cette loi nouvelle ne sera provisoire, mais elle doit être remplacée un jour par une autre loi On sait que dans cette théorie, on explique toutes les propriétés des gaz par une hypothèse simple ; on suppose que toutes les molécules gazeuses se sens grossiers nous permettent d’observer sont les effets moyens, et dans ces improbable qu’ils ne se compensent pas ; de sorte que les phénomènes Mais cette compensation des écarts n’est que probable. On dit souvent : qui sait si les lois n’évoluent pas et si on ne Et comment se fait cette déduction, c’est par le moyen des lois supposées De sorte que si les lois de la On dira peut-être que cette hypothèse pourrait conduire à des résultats se lever de deux manières : on peut supposer que les lois actuelles de la nature ne sont pas exactement celles que nous avons admises ; ou bien on peut supposer que les lois de la nature sont actuellement celles que nous Il est clair que les lois actuelles ne seront jamais assez bien connues genre, elle ne dirait pas que ce sont les lois qui ont évolué, mais les unes nous apparaissent comme exactes, c’est que nous les avons Pour qu’on pût dire que le même nous que les antécédents A et A′ sont « peu différents » ? circonstances peut s’exprimer par un nombre, et que ce nombre ait dans les C’est en effet ce que les De plus, parmi les circonstances d’un phénomène, il y en a que nous Nous admettons par exemple que l’état des corps éloignés ne Supposons que nous puissions embrasser la série de tous les envisager ce que l’on pourrait appeler les séquences, je veux dire des Nous reconnaîtrions alors que parmi ces séquences il n’y en a pas deux Mais, si le principe d’induction tel que nous qu’on pourra classer les unes à côté des autres. le Roy que tout à l’heure nous semblions rejeter : c’est librement qu’on est Et d’abord que devons-nous entendre par c’est que ce monde nous est commun avec d’autres êtres pensants. d’eux des raisonnements tout faits ; nous savons que ces raisonnements ne ces êtres raisonnables ont vu la même chose que nous ; c’est comme cela Il est clair que nous n’en Les sensations sont donc intransmissibles, ou plutôt tout ce qui est n’en est pas de même des relations entre ces sensations. en question), mais on comprend que je ne sais plus qui se soit laissé On dira peut-être que l’émotion esthétique, qui est commune à tous les mêmes pour tous les hommes et par là sont objectives. réfléchit, on verra que la preuve n’est pas faite ; ce qui est prouvé, c’est que mieux parce que cette émotion est provoquée, non par les qualités mêmes Rien n’est objectif que ce qui est identique pour tous ; or on ne peut parler d’une pareille identité que si une comparaison est on n’avait soutenu dernièrement que la physique n’est pas une science c’est avant tout une classification, une façon de rapprocher des faits que les nous venons de le dire, c’est dans les relations seulement que l’objectivité comme isolés les uns des autres. nous fait connaître que des rapports, c’est raisonner à rebours, puisque précisément ce sont les rapports seuls qui peuvent être regardés comme insaisissables parce que ce ne sont pas seulement des groupes de sensations, science, cela ne veut pas dire : la science nous fait-elle connaître la véritable mais cela veut dire ; nous fait-elle connaître les connaître la nature des choses ; mais rien n’est capable de nous la faire peut-elle nous faire connaître les véritables rapports des choses ? ce que nous avons dit plus haut sur les conditions de l’objectivité. seront-ils encore les mêmes pour ceux qui viendront Il est clair qu’ils ne sont pas les mêmes pour le savant et pour l’ignorant. peut arriver à les lui faire voir par une série d’expériences et de L’essentiel est qu’il y a des points sur lesquels tous ceux qui On peut se demander si les rapprochements que fait la Au premier abord il nous semble que les théories Mais si l’on y regarde de plus près, on voit que ce qui succombe ainsi, ce sont les théories proprement dites, celles qui prétendent nous apprendre ce que sont les choses. la théorie électromagnétique qui nous enseigne que la lumière est un N’examinons pas si on pourrait les concilier et dire que la lumière Eh bien, elle est précisément la même que pour notre croyance aux Ces derniers sont réels en ce que les sensations qu’ils nous nous révèle entre les phénomènes d’autres liens plus ténus mais non moins ne sont donc pas moins réels que ceux qui donnent leur réalité aux objets On peut dire par exemple que l’éther n’a pas moins de réalité qu’un Et même les synthèses scientifiques ont en un sens plus de réalité que est vrai enfin que cela ne peut pas être par hasard. Mais il y a mieux ; dans le même langage on dira très bien : ces deux Mais après ce que nous venons d’expliquer dans la quatrième partie, Une théorie physique, avons-nous dit, est Voilà pour la rotation de la Terre sur elle-même ; que dire de sa Est-ce par hasard que toutes les planètes lien entre les trois phénomènes et cela encore est vrai bien qu’il n’y ait pas Les rapports intimes que la Mécanique Céleste nous révèle qu’elle n’ait pas tout à fait le même sens que pour le vulgaire, et que son Nous ne pouvons connaître tous les faits et il faut choisir ceux qui sont sont plus intéressants que d’autres, parce qu’ils complètent une harmonie pratiques, mais parce qu’ils sont les plus instructifs de tous. pour le bonheur, si l’on ne croit pas que tous les plaisirs sont de même Tout ce qui n’est pas pensée est le pur néant ; puisque nous ne pouvons que la pensée, c’est donc une affirmation qui ne peut avoir de sens. Mais c’est cet éclair qui est tout. Au lieu de dire que nous rapportons l’espace à des axes invariablement liés à notre corps, peut-être vaudrait-il mieux dire, conformément à ce qui précède, que nous le rapportons à des
La Valeur de la Science     par   Henri Poincaré   Membre de l’Institut         Paris — 1908   Table des matières   INTRODUCTION PREMIÈRE PARTIE LES SCIENCES MATHÉMATIQUES CHAPITRE PREMIER L’intuition et la Logique en Mathématiques CHAPITRE II La mesure du Temps CHAPITRE III La Notion d’Espace CHAPITRE IV L’Espace et ses Trois Dimensions DEUXIÈME PARTIE LES SCIENCES PHYSIQUES CHAPITRE V L’Analyse et la Physique. CHAPITRE VI L’Astronomie CHAPITRE VII L’Histoire de la Physique mathématique. CHAPITRE VIII La Crise actuelle de la Physique mathématique. CHAPITRE IX L’Avenir de la Physique mathématique TROISIÈME PARTIE LA VALEUR OBJECTIVE DE LA SCIENCE CHAPITRE X La Science est-elle artificielle ? CHAPITRE XI La Science et la Réalité INTRODUCTION La recherche de la vérité doit être le but de notre activité ; c’est la seule fin qui soit digne d’elle. Sans doute nous devons d’abord nous efforcer de soulager les souffrances humaines, mais pourquoi ? Ne pas souffrir, c’est un idéal négatif et qui serait plus sûrement atteint par l’anéantissement du monde. Si nous voulons de plus en plus affranchir l’homme des soucis matériels, c’est pour qu’il puisse employer sa liberté reconquise à l’étude et à la contemplation de la vérité. Cependant quelquefois la vérité nous effraye. Et en effet, nous savons qu’elle est quelquefois décevante, que c’est un fantôme qui ne se montre à nous un instant que pour fuir sans cesse, qu’il faut la poursuivre plus loin et toujours plus loin, sans jamais pouvoir l’atteindre. Et cependant pour agir il faut s’arrêter, αναγκη στηναι, comme a dit je ne sais plus quel grec, Aristote ou un autre. Nous savons aussi combien elle est souvent cruelle et nous nous demandons si l’illusion n’est pas non seulement plus consolante, mais plus fortifiante aussi ; car c’est elle qui nous donne la confiance. Quand elle aura disparu, l’espérance nous restera-t-elle et aurons-nous le courage d’agir ? C’est ainsi que le cheval attelé à un manège refuserait certainement d’avancer si on ne prenait la précaution de lui bander les yeux. Et puis, pour chercher la vérité, il faut être indépendant, tout à fait indépendant. Si nous voulons agir, au contraire, si nous voulons être forts, il faut que nous soyons unis. Voilà pourquoi plusieurs d’entre nous s’effraient de la vérité ; ils la considèrent comme une cause de faiblesse. Et pourtant il ne faut pas avoir peur de la vérité parce qu’elle seule est belle. Quand je parle ici de la vérité, sans doute je veux parler d’abord de la vérité scientifique ; mais je veux parler aussi de la vérité morale, dont ce qu’on appelle la justice n’est qu’un des aspects. Il semble que j’abuse des mots, que je réunis ainsi sous un même nom deux objets qui n’ont rien de commun ; que la vérité scientifique qui se démontre ne peut, à aucun titre, se rapprocher de la vérité morale qui se sent. Et pourtant je ne peux les séparer, et ceux qui aiment l’une ne peuvent pas ne pas aimer l’autre. Pour trouver l’une, comme pour trouver l’autre, il faut s’efforcer d’affranchir complètement son âme du préjugé et de la passion, il faut atteindre à l’absolue sincérité. Ces deux sortes de vérités, une fois découvertes, nous procurent la même joie ; l’une et l’autre, dès qu’on l’a aperçue, brille du même éclat, de sorte qu’il faut la voir ou fermer les yeux. Toutes deux enfin nous attirent et nous fuient ; elles ne sont jamais fixées : quand on croit les avoir atteintes, on voit qu’il faut marcher encore, et celui qui les poursuit est condamné à ne jamais connaître le repos. Il faut ajouter que ceux qui ont peur de l’une, auront peur aussi de l’autre ; car ce sont ceux qui, en toutes choses, se préoccupent avant tout des conséquences. En un mot, je rapproche les deux vérités, parce que ce sont les mêmes raisons qui nous les font aimer et parce que ce sont les mêmes raisons qui nous les font redouter. Si nous ne devons pas avoir peur de la vérité morale, à plus forte raison il ne faut pas redouter la vérité scientifique. Et d’abord elle ne peut être en conflit avec la morale. La morale et la science ont leurs domaines propres qui se touchent mais ne se pénètrent pas. L’une nous montre à quel but nous devons viser, l’autre, le but étant donné, nous fait connaître les moyens de l’atteindre. Elles ne peuvent donc jamais se contrarier puisqu’elles ne peuvent se rencontrer. Il ne peut pas y avoir de science immorale, pas plus qu’il ne peut y avoir de morale scientifique. Mais si l’on a peur de la science, c’est surtout parce qu’elle ne peut nous donner le bonheur. Évidemment non, elle ne peut pas nous le donner, et l’on peut se demander si la bête ne souffre pas moins que l’homme. Mais pouvons-nous regretter ce paradis terrestre où l’homme, semblable à la brute, était vraiment immortel puisqu’il ne savait pas qu’on doit mourir ? Quand on a goûté à la pomme, aucune souffrance ne peut en faire oublier la saveur, et on y revient toujours. Pourrait-on faire autrement ? Autant demander si celui qui a vu, peut devenir aveugle et ne pas sentir la nostalgie de la lumière. Aussi l’homme ne peut être heureux par la science, mais aujourd’hui il peut bien moins encore être heureux sans elle. Mais si la vérité est le seul but qui mérite d’être poursuivi, pouvons- nous espérer l’atteindre ? Voilà de quoi il est permis de douter. Les lecteurs de mon petit livre sur la Science et l’Hypothèse savent déjà ce que j’en pense. La vérité qu’il nous est permis d’entrevoir n’est pas tout à fait ce que la plupart des hommes appellent de ce nom. Est-ce à dire que notre aspiration la plus légitime et la plus impérieuse est en même temps la plus vaine ? Ou bien pouvons-nous malgré tout approcher de la vérité par quelque côté, c’est ce qu’il convient d’examiner. Et d’abord, de quel instrument disposons-nous pour cette conquête ? L’intelligence de l’homme, pour nous restreindre, l’intelligence du savant n’est-elle pas susceptible d’une infinie variété ? On pourrait, sans épuiser ce sujet, écrire bien des volumes ; je n’ai fait que l’effleurer en quelques courtes pages. Que l’esprit du mathématicien ressemble peu à celui du physicien ou à celui du naturaliste, tout le monde en conviendra ; mais les mathématiciens eux-mêmes ne se ressemblent pas entre eux ; les uns ne connaissent que l’implacable logique, les autres font appel à l’intuition et voient en elle la source unique de la découverte. Et ce serait là une raison de défiance. À des esprits si dissemblables, les théorèmes mathématiques eux- mêmes pourront-ils apparaître sous le même jour ? La vérité qui n’est pas la même pour tous est-elle la vérité ? Mais en regardant les choses de plus près, nous voyons comment ces ouvriers si différents collaborent à une œuvre commune qui ne pourrait s’achever sans leur concours. Et cela déjà nous rassure. Il faut ensuite examiner les cadres dans lesquels la nature nous paraît enfermée et que nous nommons le temps et l’espace. Dans Science et Hypothèse, j’ai déjà montré combien leur valeur est relative ; ce n’est pas la nature qui nous les impose, c’est nous qui les imposons à la nature parce que nous les trouvons commodes, mais je n’ai guère parlé que de l’espace, et surtout de l’espace quantitatif, pour ainsi dire, c’est-à-dire des relations mathématiques dont l’ensemble constitue la géométrie. Il était nécessaire de montrer qu’il en est du temps comme de l’espace et qu’il en est encore de même de « l’espace qualitatif » ; il fallait en particulier rechercher pourquoi nous attribuons trois dimensions à l’espace. On me pardonnera donc d’être revenu une fois encore sur ces importantes questions. L’analyse mathématique, dont l’étude de ces cadres vides est l’objet principal, n’est-elle donc qu’un vain jeu de l’esprit ? Elle ne peut donner au physicien qu’un langage commode ; n’est-ce pas là un médiocre service, dont on aurait pu se passer à la rigueur ; et même, n’est-il pas à craindre que ce langage artificiel ne soit un voile interposé entre la réalité et l’œil du physicien ? Loin de là, sans ce langage, la plupart des analogies intimes des choses nous seraient demeurées à jamais inconnues ; et nous aurions toujours ignoré l’harmonie interne du monde, qui est, nous le verrons, la seule véritable réalité objective. La meilleure expression de cette harmonie, c’est la Loi ; la Loi est une des conquêtes les plus récentes de l’esprit humain ; il y a encore des peuples qui vivent dans un miracle perpétuel et qui ne s’en étonnent pas. C’est nous au contraire qui devrions nous étonner de la régularité de la nature. Les hommes demandent à leurs dieux de prouver leur existence par des miracles ; mais la merveille éternelle c’est qu’il n’y ait pas sans cesse des miracles. Et c’est pour cela que le monde est divin, puisque c’est pour cela qu’il est harmonieux. S’il était régi par le caprice, qu’est-ce qui nous prouverait qu’il ne l’est pas par le hasard ? Cette conquête de la Loi, c’est à l’Astronomie que nous la devons, et c’est ce qui fait la grandeur de cette Science, plus encore que la grandeur matérielle des objets qu’elle considère. Il était donc tout naturel que la Mécanique Céleste fût le premier modèle de la Physique Mathématique ; mais depuis cette Science, a évolué ; elle évolue encore, elle évolue même rapidement. Et déjà il est nécessaire de modifier sur quelques points le tableau que je traçais en 1900 et dont j’ai tiré deux chapitres de Science et Hypothèse. Dans une conférence faite à l’Exposition de Saint-Louis en 1904, j’ai cherché à mesurer le chemin parcouru ; quel a été le résultat de cette enquête, c’est ce que le lecteur verra plus loin. Les progrès de la Science ont semblé mettre en péril les principes les mieux établis, ceux-là mêmes qui étaient regardés comme fondamentaux. Rien ne prouve cependant qu’on n’arrivera pas à les sauver ; et si on n’y parvient qu’imparfaitement, ils subsisteront encore, tout en se transformant. Il ne faut pas comparer la marche de la Science aux transformations d’une ville, où les édifices vieillis sont impitoyablement jetés à bas pour faire place aux constructions nouvelles, mais à l’évolution continue des types zoologiques qui se développent sans cesse et finissent par devenir méconnaissables aux regards vulgaires, mais où un œil exercé retrouve toujours les traces du travail antérieur des siècles passés. Il ne faut donc pas croire que les théories démodées ont été stériles et vaines. Si nous nous arrêtions là, nous trouverions dans ces pages quelques raisons d’avoir confiance dans la valeur de la Science, mais des raisons beaucoup plus nombreuses de nous en défier ; il nous resterait une impression de doute ; il faut maintenant remettre les choses au point. Quelques personnes ont exagéré le rôle de la convention dans la Science ; elles sont allées jusqu’à dire que la Loi, que le fait scientifique lui- même étaient créés par le savant. C’est là aller beaucoup trop loin dans la voie du nominalisme. Non, les lois scientifiques ne sont pas des créations artificielles ; nous n’avons aucune raison de les regarder comme contingentes, bien qu’il nous soit impossible de démontrer qu’elles ne le sont pas. Cette harmonie que l’intelligence humaine croit découvrir dans la nature, existe-t-elle en dehors de cette intelligence ? Non, sans doute, une réalité complètement indépendante de l’esprit qui la conçoit, la voit ou la sent, c’est une impossibilité. Un monde si extérieur que cela, si même il existait, nous serait à jamais inaccessible. Mais ce que nous appelons la réalité objective, c’est, en dernière analyse, ce qui est commun à plusieurs êtres pensants, et pourrait être commun à tous ; cette partie commune, nous le verrons, ce ne peut être que l’harmonie exprimée par des lois mathématiques. C’est donc cette harmonie qui est la seule réalité objective, la seule vérité que nous puissions atteindre ; et si j’ajoute que l’harmonie universelle du monde est la source de toute beauté, on comprendra quel prix nous devons attacher aux lents et pénibles progrès qui nous la font peu à peu mieux connaître.     PREMIÈRE PARTIE LES SCIENCES MATHÉMATIQUES     CHAPITRE PREMIER L’intuition et la Logique en Mathématiques I Il est impossible d’étudier les Œuvres des grands mathématiciens, et même celles des petits, sans remarquer et sans distinguer deux tendances opposées, ou plutôt deux sortes d’esprits entièrement différents. Les uns sont avant tout préoccupés de la logique ; à lire leurs ouvrages, on est tenté de croire qu’ils n’ont avancé que pas à pas, avec la méthode d’un Vauban qui pousse ses travaux d’approche contre une place forte, sans rien abandonner au hasard. Les autres se laissent guider par l’intuition et font du premier coup des conquêtes rapides, mais quelquefois précaires, ainsi que de hardis cavaliers d’avant-garde. Ce n’est pas la matière qu’ils traitent qui leur impose l’une ou l’autre méthode. Si l’on dit souvent des premiers qu’ils sont des analystes et si l’on appelle les autres géomètres, cela n’empêche pas que les uns restent analystes, même quand ils font de la Géométrie, tandis que les autres sont encore des géomètres, même s’ils s’occupent d’Analyse pure. C’est la nature même de leur esprit qui les fait logiciens ou intuitifs, et ils ne peuvent la dépouiller quand ils abordent un sujet nouveau. Ce n’est pas non plus l’éducation qui a développé en eux l’une des deux tendances et qui a étouffé l’autre. On naît mathématicien, on ne le devient pas, et il semble aussi qu’on naît géomètre, ou qu’on naît analyste. Je voudrais citer des exemples et certes ils ne manquent pas ; mais pour accentuer le contraste, je voudrais commencer par un exemple extrême ; pardon, si je suis obligé de le chercher auprès de deux mathématiciens vivants. M. Méray veut démontrer qu’une équation binôme a toujours une racine, ou, en termes vulgaires, qu’on peut toujours subdiviser un angle. S’il est une vérité que nous croyons connaître par intuition directe, c’est bien celle-là. Qui doutera qu’un angle peut toujours être partagé en un nombre quelconque de parties égales ? M. Méray n’en juge pas ainsi ; à ses yeux, cette proposition n’est nullement évidente et pour la démontrer, il lui faut plusieurs pages. Voyez au contraire M. Klein : il étudie une des questions les plus abstraites de la théorie des fonctions ; il s’agit de savoir si sur une surface de Riemann donnée, il existe toujours une fonction admettant des singularités données. Que fait le célèbre géomètre allemand ? Il remplace sa surface de Riemann par une surface métallique dont la conductibilité électrique varie suivant certaines lois. Il met deux de ses points en communication avec les deux pôles d’une pile. Il faudra bien, dit-il, que le courant passe, et la façon dont ce courant sera distribué sur la surface définira une fonction dont les singularités seront précisément celles qui sont prévues par l’énoncé. Sans doute, M. Klein sait bien qu’il n’a donné là qu’un aperçu : toujours est-il qu’il n’a pas hésité à le publier ; et il croyait probablement y trouver sinon une démonstration rigoureuse, du moins je ne sais quelle certitude morale. Un logicien aurait rejeté avec horreur une semblable conception, ou plutôt il n’aurait pas eu à la rejeter, car dans son esprit elle n’aurait jamais pu naître. Permettez-moi encore de comparer deux hommes, qui sont l’honneur de la Science française, qui nous ont été récemment enlevés, mais qui tous deux étaient depuis longtemps entrés dans l’immortalité. Je veux parler de M. Bertrand et de M. Hermite. Ils ont été élèves de la même école et en même temps ; ils ont subi la même éducation, les mêmes influences ; et pourtant quelle divergence ; ce n’est pas seulement dans leurs écrits qu’on la voit éclater ; c’est dans leur enseignement, dans leur façon de parler, dans leur aspect même. Dans la mémoire de tous leurs élèves, ces deux physionomies se sont gravées en traits ineffaçables ; pour tous ceux qui ont eu le bonheur de suivre leurs leçons, ce souvenir est encore tout récent ; il nous est aisé de l’évoquer. Tout en parlant, M. Bertrand est toujours en action ; tantôt il semble aux prises avec quelque ennemi extérieur, tantôt il dessine d’un geste de la main les figures qu’il étudie. Évidemment, il voit et il cherche à peindre, c’est pour cela qu’il appelle le geste à son secours. Pour M. Hermite, c’est tout le contraire ; ses yeux semblent fuir le contact du monde ; ce n’est pas au dehors, c’est au dedans qu’il cherche la vision de la vérité. Parmi les géomètres allemands de ce siècle, deux noms surtout sont illustres ; ce sont ceux des deux savants qui ont fondé la théorie générale des fonctions, Weierstrass et Riemann. Weierstrass ramène tout à la considération des séries et à leurs transformations analytiques ; pour mieux dire, il réduit l’Analyse à une sorte de prolongement de l’Arithmétique ; on peut parcourir tous ses Livres sans y trouver une figure. Riemann, au contraire, appelle de suite la Géométrie à son secours, chacune de ses conceptions est une image que nul ne peut oublier dès qu’il en a compris le sens. Plus récemment, Lie était un intuitif ; on aurait pu hésiter en lisant ses ouvrages, on n’hésitait plus après avoir causé avec lui ; on voyait tout de suite qu’il pensait en images. M me Kowalevski était une logicienne. Chez nos étudiants, nous remarquons les mêmes différences ; les uns aiment mieux traiter leurs problèmes « par l’Analyse », les autres « par la Géométrie ». Les premiers sont incapables de « voir dans l’espace », les autres se lasseraient promptement des longs calculs et s’y embrouilleraient. Les deux sortes d’esprits sont également nécessaires aux progrès de la Science ; les logiciens, comme les intuitifs, ont fait de grandes choses que les autres n’auraient pas pu faire. Qui oserait dire s’il aimerait mieux que Weierstrass n’eût jamais écrit, ou s’il préférerait qu’il n’y eût pas eu de Riemann ? L’Analyse et la Synthèse ont donc toutes deux leur rôle légitime. Mais il est intéressant d’étudier de plus près quelle est dans l’histoire de la Science la part qui revient à l’une et à l’autre. II Chose curieuse ! Si nous relisons les Œuvres des anciens, nous serons tentés de les classer tous parmi les intuitifs. Et pourtant la nature est toujours la même, il est peu probable qu’elle ait commencé dans ce siècle à créer des esprits amis de la logique. Si nous pouvions nous replacer dans le courant des idées qui régnaient de leur temps, nous reconnaîtrions que beaucoup de ces vieux géomètres étaient analystes par leurs tendances. Euclide, par exemple, a élevé un échafaudage savant où ses contemporains ne pouvaient trouver de défaut. Dans cette vaste construction, dont chaque pièce, pourtant, est due à l’intuition, nous pouvons encore aujourd’hui sans trop d’efforts reconnaître l’œuvre d’un logicien. Ce ne sont pas les esprits qui ont changé, ce sont les idées ; les esprits intuitifs sont restés les mêmes ; mais leurs lecteurs ont exigé d’eux plus de concessions. Quelle est la raison de cette évolution ? Il n’est pas difficile de la découvrir. L’intuition ne peut nous donner la rigueur, ni même la certitude, on s’en est aperçu de plus en plus. Citons quelques exemples. Nous savons qu’il existe des fonctions continues dépourvues de dérivées. Rien de plus choquant pour l’intuition que cette proposition qui nous est imposée par la logique. Nos pères n’auraient pas manqué de dire : « Il est évident que toute fonction continue a une dérivée, puisque toute courbe a une tangente. » Comment l’intuition peut-elle nous tromper à ce point ? C’est que quand nous cherchons à imaginer une courbe, nous ne pouvons pas nous la représenter sans épaisseur ; de même, quand nous nous représentons une droite, nous la voyons sous la forme d’une bande rectiligne d’une certaine largeur. Nous savons bien que ces lignes n’ont pas d’épaisseur ; nous nous efforçons de les imaginer de plus en plus minces et de nous rapprocher ainsi de la limite ; nous y parvenons dans une certaine mesure, mais nous n’atteindrons jamais cette limite. Et alors il est clair que nous pourrons toujours nous représenter ces deux rubans étroits, l’un rectiligne, l’autre curviligne, dans une position telle qu’ils empiètent légèrement l’un sur l’autre sans se traverser. Nous serons ainsi amenés, à moins d’être avertis par une analyse rigoureuse, à conclure qu’une courbe a toujours une tangente. Je prendrai comme second exemple le principe de Dirichlet sur lequel reposent tant de théorèmes de physique mathématique ; aujourd’hui on l’établit par des raisonnements très rigoureux mais très longs ; autrefois, au contraire, on se contentait d’une démonstration sommaire. Une certaine intégrale dépendant d’une fonction arbitraire ne peut jamais s’annuler. On en concluait qu’elle doit avoir un minimum. Le défaut de ce raisonnement nous apparaît immédiatement, parce que nous employons le terme abstrait de fonction et que nous sommes familiarisés avec toutes les singularités que peuvent présenter les fonctions quand on entend ce mot dans le sens le plus général. Mais il n’en serait pas de même si l’on s’était servi d’images concrètes, si l’on avait, par exemple, considéré cette fonction comme un potentiel électrique ; on aurait pu croire légitime d’affirmer que l’équilibre électrostatique peut être atteint. Peut-être cependant une comparaison physique aurait éveillé quelques vagues défiances. Mais si l’on avait pris soin de traduire le raisonnement dans le langage de la Géométrie, intermédiaire entre celui de l’Analyse et celui de la Physique, ces défiances ne se seraient sans doute pas produites, et peut-être pourrait-on ainsi, même aujourd’hui, tromper encore bien des lecteurs non prévenus. L’intuition ne nous donne donc pas la certitude. Voilà pourquoi l’évolution devait se faire ; voyons maintenant comment elle s’est faite. On n’a pas tardé à s’apercevoir que la rigueur ne pourrait pas s’introduire dans les raisonnements, si on ne la faisait entrer d’abord dans les définitions. Longtemps les objets dont s’occupent les mathématiciens étaient pour la plupart mal définis ; on croyait les connaître, parce qu’on se les représentait avec les sens ou l’imagination ; mais on n’en avait qu’une image grossière et non une idée précise sur laquelle le raisonnement pût avoir prise. C’est là d’abord que les logiciens ont dû porter leurs efforts. Ainsi pour le nombre incommensurable. L’idée vague de continuité, que nous devions à l’intuition, s’est résolue en un système compliqué d’inégalités portant sur des nombres entiers. Par là, les difficultés provenant des passages à la limite, ou de la considération des infiniment petits, se sont trouvées définitivement éclaircies. Il ne reste plus aujourd’hui en Analyse que des nombres entiers ou des systèmes finis ou infinis de nombres entiers, reliés entre eux par un réseau de relations d’égalité ou d’inégalité. Les Mathématiques, comme on l’a dit, se sont arithmétisées. III Une première question se pose. Cette évolution est-elle terminée ? Avons-nous atteint enfin la rigueur absolue ? À chaque stade de l’évolution nos pères croyaient aussi l’avoir atteinte. S’ils se trompaient, ne nous trompons-nous pas comme eux ? Nous croyons dans nos raisonnements ne plus faire appel à l’intuition ; les philosophes nous diront que c’est là une illusion. La logique toute pure ne nous mènerait jamais qu’à des tautologies ; elle ne pourrait créer du nouveau ; ce n’est pas d’elle toute seule qu’aucune science peut sortir. Ces philosophes ont raison dans un sens ; pour faire l’Arithmétique, comme pour faire la Géométrie, ou pour faire une science quelconque, il faut autre chose que la logique pure. Cette autre chose, nous n’avons pour la désigner d’autre mot que celui d’intuition. Mais combien d’idées différentes se cachent sous ces mêmes mots ? Comparons ces quatre axiomes :   1° Deux quantités égales à une troisième sont égales entre elles ;  2° Si un théorème est vrai du nombre 1 et si l’on démontre qu’il est vrai de n + 1, pourvu qu’il le soit de n, il sera vrai de tous les nombres entiers ; 3° Si sur une droite le point C est entre A et B et le point D entre A et G, le point D sera entre A et B ; 4° Par un point on ne peut mener qu’une parallèle à une droite.   Tous quatre doivent être attribués à l’intuition, et cependant le premier est l’énoncé d’une des règles de la logique formelle ; le second est un véritable jugement synthétique a priori, c’est le fondement de l’induction mathématique rigoureuse ; le troisième est un appel à l’imagination ; le quatrième est une définition déguisée. L’intuition n’est pas forcément fondée sur le témoignage des sens ; les sens deviendraient bientôt impuissants ; nous ne pouvons, par exemple, nous représenter le chilogone, et cependant nous raisonnons par intuition sur les polygones en général, qui comprennent le chilogone comme cas particulier. Vous savez ce que Poncelet entendait par le principe de continuité. Ce qui est vrai d’une quantité réelle, disait Poncelet, doit l’être d’une quantité imaginaire ; ce qui est vrai de l’hyperbole dont les asymptotes sont réelles, doit donc être vrai de l’ellipse dont les asymptotes sont imaginaires. Poncelet était l’un des esprits les plus intuitifs de ce siècle ; il l’était avec passion, presque avec ostentation ; il regardait le principe de continuité comme une de ses conceptions les plus hardies, et cependant ce principe ne reposait pas sur le témoignage des sens ; c’était plutôt contredire ce témoignage que d’assimiler l’hyperbole à l’ellipse. Il n’y avait là qu’une sorte de généralisation hâtive et instinctive que je ne veux d’ailleurs pas défendre. Nous avons donc plusieurs sortes d’intuitions ; d’abord, l’appel aux sens et à l’imagination ; ensuite, la généralisation par induction, calquée, pour ainsi dire, sur les procédés des sciences expérimentales ; nous avons enfin l’intuition du nombre pur, celle d’où est sorti le second des axiomes que j’énonçais tout à l’heure et qui peut engendrer le véritable raisonnement mathématique. Les deux premières ne peuvent nous donner la certitude, je l’ai montré plus haut par des exemples ; mais qui doutera sérieusement de la troisième, qui doutera de l’Arithmétique ? Or, dans l’Analyse d’aujourd’hui, quand on veut se donner la peine d’être rigoureux, il n’y a plus que des syllogismes ou des appels à cette intuition du nombre pur, la seule qui ne puisse nous tromper. On peut dire qu’aujourd’hui la rigueur absolue est atteinte. IV Les philosophes font encore une autre objection : « Ce que vous gagnez en rigueur, disent-ils, vous le perdez en objectivité. Vous ne pouvez vous élever vers votre idéal logique qu’en coupant les liens qui vous rattachent à la réalité. Votre Science est impeccable, mais elle ne peut le rester qu’en s’enfermant dans une tour d’ivoire et en s’interdisant tout rapport avec le monde extérieur. Il faudra bien qu’elle en sorte dès qu’elle voudra tenter la moindre application. » Je veux démontrer, par exemple, que telle propriété appartient à tel objet dont la notion me semble d’abord indéfinissable, parce qu’elle est intuitive. J’échoue d’abord ou je dois me contenter de démonstrations par à peu près ; je me décide enfin à donner à mon objet une définition précise, ce qui me permet d’établir cette propriété d’une manière irréprochable. « Et après ? disent les philosophes, il reste encore à montrer que l’objet qui répond à cette définition est bien le même que l’intuition vous a fait connaître ; ou bien encore que tel objet réel et concret dont vous croyiez reconnaître immédiatement la conformité avec votre idée intuitive, répond bien à votre définition nouvelle. C’est alors seulement que vous pourrez affirmer qu’il jouit de la propriété en question. Vous n’avez fait que déplacer la difficulté. » Cela n’est pas exact ; on n’a pas déplacé la difficulté, on l’a divisée. La proposition qu’il s’agissait d’établir se composait en réalité de deux vérités différentes, mais que l’on n’avait pas distinguées tout d’abord. La première était une vérité mathématique et elle est maintenant rigoureusement établie. La seconde était une vérité expérimentale. L’expérience seule peut nous apprendre que tel objet réel et concret répond ou ne répond pas à telle définition abstraite. Cette seconde vérité n’est pas démontrée mathématiquement, mais elle ne peut pas l’être, pas plus que ne peuvent l’être les lois empiriques des Sciences physiques et naturelles. Il serait déraisonnable de demander davantage. Eh bien ! n’est-ce pas un grand progrès d’avoir distingué ce qu’on avait longtemps confondu à tort ? Est-ce à dire qu’il n’y a rien à retenir de cette objection des philosophes ? Ce n’est pas cela que je veux dire ; en devenant rigoureuse, la Science mathématique prend un caractère artificiel qui frappera tout le monde ; elle oublie ses origines historiques ; on voit comment les questions peuvent se résoudre, on ne voit plus comment et pourquoi elles se posent. Cela nous montre que la logique ne suffît pas ; que la Science de la démonstration n’est pas la Science tout entière et que l’intuition doit conserver son rôle comme complément, j’allais dire comme contrepoids ou comme contrepoison de la logique. J’ai déjà eu l’occasion d’insister sur la place que doit garder l’intuition dans l’enseignement des Sciences mathématiques. Sans elle, les jeunes esprits ne sauraient s’initier à l’intelligence des Mathématiques ; ils n’apprendraient pas à les aimer et n’y verraient qu’une vaine logomachie ; sans elle surtout, ils ne deviendraient jamais capables de les appliquer. Mais aujourd’hui, c’est avant tout du rôle de l’intuition dans la Science elle-même que je voudrais parler. Si elle est utile à l’étudiant, elle l’est plus encore au savant créateur. V Nous cherchons la réalité, mais qu’est-ce que la réalité ? Les physiologistes nous apprennent que les organismes sont formés de cellules ; les chimistes ajoutent que les cellules elles-mêmes sont formées d’atomes. Cela veut-il dire que ces atomes ou que ces cellules constituent la réalité, ou du moins la seule réalité ? La façon dont ces cellules sont agencées et d’où résulte l’unité de l’individu, n’est-elle pas aussi une réalité, beaucoup plus intéressante que celle des éléments isolés, et un naturaliste, qui n’aurait jamais étudié l’éléphant qu’au microscope, croirait- il connaître suffisamment cet animal ? Eh bien ! en Mathématiques, il y a quelque chose d’analogue. Le logicien décompose pour ainsi dire chaque démonstration en un très grand nombre d’opérations élémentaires ; quand on aura examiné ces opérations les unes après les autres et qu’on aura constaté que chacune d’elles est correcte, croira-t-on avoir compris le véritable sens de la démonstration ? L’aura-t-on compris même quand, par un effort de mémoire, on sera devenu capable de répéter cette démonstration en reproduisant toutes ces opérations élémentaires dans l’ordre même où les avait rangées l’inventeur ? Évidemment non, nous ne posséderons pas encore la réalité tout entière, ce je ne sais quoi qui fait l’unité de la démonstration nous échappera complètement. L’Analyse pure met à notre disposition une foule de procédés dont elle nous garantit l’infaillibilité ; elle nous ouvre mille chemins différents où nous pouvons nous engager en toute confiance ; nous sommes assurés de n’y pas rencontrer d’obstacles ; mais, de tous ces chemins, quel est celui qui nous mènera le plus promptement au but ? Qui nous dira lequel il faut choisir ? Il nous faut une faculté qui nous fasse voir le but de loin, et, cette faculté, c’est l’intuition. Elle est nécessaire à l’explorateur pour choisir sa route, elle ne l’est pas moins à celui qui marche sur ses traces et qui veut savoir pourquoi il l’a choisie. Si vous assistez à une partie d’échecs, il ne vous suffira pas, pour comprendre la partie, de savoir les règles de la marche des pièces. Cela vous permettrait seulement de reconnaître que chaque coup a été joué conformément à ces règles et cet avantage aurait vraiment bien peu de prix. C’est pourtant ce que ferait le lecteur d’un livre de Mathématiques, s’il n’était que logicien. Comprendre la partie, c’est tout autre chose ; c’est savoir pourquoi le joueur avance telle pièce plutôt que telle autre qu’il aurait pu faire mouvoir sans violer les règles du jeu. C’est apercevoir la raison intime qui fait de cette série de coups successifs une sorte de tout organisé. À plus forte raison, cette faculté est-elle nécessaire au joueur lui- même, c’est-à-dire à l’inventeur. Laissons là cette comparaison et revenons aux Mathématiques. Voyons ce qui est arrivé, par exemple pour l’idée de fonction continue. Au début, ce n’était qu’une image sensible, par exemple, celle d’un trait continu tracé à la craie sur un tableau noir. Puis elle s’est épurée peu à peu, bientôt on s’en est servi pour construire un système compliqué d’inégalités, qui reproduisait pour ainsi dire toutes les lignes de l’image primitive ; quand cette construction a été terminée, on a décintré, pour ainsi dire, on a rejeté cette représentation grossière qui lui avait momentanément servi d’appui et qui était désormais inutile ; il n’est plus resté que la construction elle-même, irréprochable aux yeux du logicien. Et cependant si l’image primitive avait totalement disparu de notre souvenir, comment devinerions- nous par quel caprice toutes ces inégalités se sont échafaudées de cette façon les unes sur les autres ? Vous trouverez peut-être que j’abuse des comparaisons ; passez-m’en cependant encore une. Vous avez vu sans doute ces assemblages délicats d’aiguilles siliceuses qui forment le squelette de certaines éponges. Quand la matière organique a disparu, il ne reste qu’une frêle et élégante dentelle. Il n’y a là, il est vrai, que de la silice, mais, ce qui est intéressant, c’est la forme qu’a prise cette silice, et nous ne pouvons la comprendre si nous ne connaissons pas l’éponge vivante qui lui a précisément imprimé cette forme. C’est ainsi que les anciennes notions intuitives de nos pères, même lorsque nous les avons abandonnées, impriment encore leur forme aux échafaudages logiques que nous avons mis à leur place. Cette vue d’ensemble est nécessaire à l’inventeur ; elle est nécessaire également à celui qui veut réellement comprendre l’inventeur ; la logique peut-elle nous la donner ? Non ; le nom que lui donnent les mathématiciens suffirait pour le prouver. En Mathématiques, la logique s’appelle Analyse et analyse veut dire division, dissection. Elle ne peut donc avoir d’autre outil que le scalpel et le microscope. Ainsi, la logique et l’intuition ont chacune leur rôle nécessaire. Toutes deux sont indispensables. La logique qui peut seule donner la certitude est l’instrument de la démonstration : l’intuition est l’instrument de l’invention. VI Mais, au moment de formuler cette conclusion, je suis pris d’un scrupule. Au début, j’ai distingué deux sortes d’esprits mathématiques, les uns logiciens et analystes, les autres intuitifs et géomètres. Eh bien, les analystes aussi ont été des inventeurs. Les noms que j’ai cités tout à l’heure me dispensent d’insister. Il y a là une contradiction au moins apparente qu’il est nécessaire d’expliquer. Croit-on d’abord que ces logiciens ont toujours procédé du général au particulier, comme les règles de la logique formelle semblaient les y obliger ? Ce n’est pas ainsi qu’ils auraient pu étendre les frontières de la Science ; on ne peut faire de conquête scientifique que par la généralisation. Dans un des chapitres de Science et Hypothèse, j’ai eu l’occasion d’étudier la nature du raisonnement mathématique et j’ai montré comment ce raisonnement, sans cesser d’être absolument rigoureux, pouvait nous élever du particulier au général par un procédé que j’ai appelé l’induction mathématique. C’est par ce procédé que les analystes ont fait progresser la Science et si l’on examine le détail même de leurs démonstrations, on l’y retrouvera à chaque instant à côté du syllogisme classique d’Aristote. Nous voyons donc déjà que les analystes ne sont pas simplement des faiseurs de syllogismes à la façon des scolastiques. Croira-t-on, d’autre part, qu’ils ont toujours marché pas à pas sans avoir la vision du but qu’ils voulaient atteindre ? Il a bien fallu qu’ils devinassent le chemin qui y conduisait, et pour cela ils ont eu besoin d’un guide. Ce guide, c’est d’abord l’analogie. Par exemple, un des raisonnements chers aux analystes est celui qui est fondé sur l’emploi des fonctions majorantes. On sait qu’il a déjà servi à résoudre une foule de problèmes ; en quoi consiste alors le rôle de l’inventeur qui veut l’appliquer à un problème nouveau ? Il faut d’abord qu’il reconnaisse l’analogie de cette question avec celles qui ont déjà été résolues par cette méthode ; il faut ensuite qu’il aperçoive en quoi cette nouvelle question diffère des autres, et qu’il en déduise les modifications qu’il est nécessaire d’apporter à la méthode. Mais comment aperçoit-on ces analogies et ces différences ? Dans l’exemple que je viens de citer, elles sont presque toujours évidentes, mais j’aurais pu en trouver d’autres où elles auraient été beaucoup plus cachées ; souvent il faut pour les découvrir une perspicacité peu commune. Les analystes, pour ne pas laisser échapper ces analogies cachées, c’est- à-dire pour pouvoir être inventeurs, doivent, sans le secours des sens et de l’imagination, avoir le sentiment direct de ce qui fait l’unité d’un raisonnement, de ce qui en fait pour ainsi dire l’âme et la vie intime. Quand on causait avec M. Hermite ; jamais il n’évoquait une image sensible, et pourtant vous vous aperceviez bientôt que les entités les plus abstraites étaient pour lui comme des êtres vivants. Il ne les voyait pas, mais il sentait qu’elles ne sont pas un assemblage artificiel, et qu’elles ont je ne sais quel principe d’unité interne. Mais, dira-t-on, c’est là encore de l’intuition. Conclurons-nous que la distinction faite au début n’était qu’une apparence, qu’il n’y a qu’une sorte d’esprits et que tous les mathématiciens sont des intuitifs, du moins ceux qui sont capables d’inventer ? Non, notre distinction correspond à quelque chose de réel. J’ai dit plus haut qu’il y a plusieurs espèces d’intuition. J’ai dit combien l’intuition du nombre pur, celle d’où peut sortir l’induction mathématique rigoureuse, diffère de l’intuition sensible dont l’imagination proprement dite fait tous les frais. L’abîme qui les sépare est-il moins profond qu’il ne paraît d’abord ? Reconnaîtrait-on avec un peu d’attention que cette intuition pure elle-même ne saurait se passer du secours des sens ? C’est là l’affaire du psychologue et du métaphysicien et je ne discuterai pas cette question. Mais il suffit que la chose soit douteuse pour que je sois en droit de reconnaître et d’affirmer une divergence essentielle entre les deux sortes d’intuition ; elles n’ont pas le même objet et semblent mettre en jeu deux facultés différentes de notre âme ; on dirait de deux projecteurs braqués sur deux mondes étrangers l’un à l’autre. C’est l’intuition du nombre pur, celle des formes logiques pures qui éclaire et dirige ceux que nous avons appelés analystes. C’est elle qui leur permet non seulement de démontrer, mais encore d’inventer. C’est par elle qu’ils aperçoivent d’un coup d’œil le plan général d’un édifice logique, et cela sans que les sens paraissent intervenir. En rejetant le secours de l’imagination, qui, nous l’avons vu, n’est pas toujours infaillible, ils peuvent avancer sans crainte de se tromper. Heureux donc ceux qui peuvent se passer de cet appui ! Nous devons les admirer, mais combien ils sont rares ! Pour les analystes, il y aura donc des inventeurs, mais il y en aura peu. La plupart d’entre nous, s’ils voulaient voir de loin par la seule intuition pure, se sentiraient bientôt pris de vertige. Leur faiblesse a besoin d’un bâton plus solide et, malgré les exceptions dont nous venons de parler, il n’en est pas moins vrai que l’intuition sensible est en Mathématiques l’instrument le plus ordinaire de l’invention. À propos des dernières réflexions que je viens de faire, une question se pose que je n’ai le temps, ni de résoudre, ni même d’énoncer avec les développements qu’elle comporterait. Y a-t-il lieu de faire une nouvelle coupure et de distinguer parmi les analystes ceux qui se servent surtout de cette intuition pure ou ceux qui se préoccupent d’abord de la logique formelle ? M. Hermite, par exemple, que je citais tout à l’heure, ne peut être classé parmi les géomètres qui font usage de l’intuition sensible ; mais il n’est pas non plus un logicien proprement dit. Il ne cache pas sa répulsion pour les procédés purement déductifs qui partent du général pour aller au particulier.     CHAPITRE II La mesure du Temps I Tant que l’on ne sort pas du domaine de la conscience, la notion du temps est relativement claire. Non seulement nous distinguons sans peine la sensation présente du souvenir des sensations passées ou de la prévision des sensations futures ; mais nous savons parfaitement ce que nous voulons dire quand nous affirmons que, de deux phénomènes conscients dont nous avons conservé le souvenir, l’un a été antérieur à l’autre ; ou bien que, de deux phénomènes conscients prévus, l’un sera antérieur à l’autre. Quand nous disons que deux faits conscients sont simultanés, nous voulons dire qu’ils se pénètrent profondément l’un l’autre, de telle sorte que l’analyse ne peut les séparer sans les mutiler. L’ordre dans lequel nous rangeons les phénomènes conscients ne comporte aucun arbitraire. Il nous est imposé et nous n’y pouvons rien changer. Je n’ai qu’une observation à ajouter. Pour qu’un ensemble de sensations soit devenu un souvenir susceptible d’être classé dans le temps, il faut qu’il ait cessé d’être actuel, que nous ayons perdu le sens de son infinie complexité, sans quoi il serait resté actuel. Il faut qu’il ait pour ainsi dire cristallisé autour d’un centre d’associations d’idées qui sera comme une sorte d’étiquette. Ce n’est que quand ils auront ainsi perdu toute vie que nous pourrons classer nos souvenirs dans le temps, comme un botaniste range dans son herbier les fleurs desséchées. Mais ces étiquettes ne peuvent être qu’en nombre fini. À ce compte, le temps psychologique serait discontinu. D’où vient ce sentiment qu’entre deux instants quelconques il y a d’autres instants ? Nous classons nos souvenirs dans le temps, mais nous savons qu’il reste des cases vides. Comment cela se pourrait-il si le temps n’était une forme préexistant dans notre esprit ? Comment saurions-nous qu’il y a des cases vides, si ces cases ne nous étaient révélées que par leur contenu ? II Mais ce n’est pas tout ; dans cette forme nous voulons faire rentrer non seulement les phénomènes de notre conscience, mais ceux dont les autres consciences sont le théâtre. Bien plus, nous voulons y faire rentrer les faits physiques, ces je ne sais quoi dont nous peuplons l’espace et que nulle conscience ne voit directement. Il le faut bien car sans cela la science ne pourrait exister. En un mot, le temps psychologique nous est donné et nous voulons créer le temps scientifique et physique. C’est là que la difficulté commence, ou plutôt les difficultés, car il y en a deux. Voilà deux consciences qui sont comme deux mondes impénétrables l’un à l’autre. De quel droit voulons-nous les faire entrer dans un même moule, les mesurer avec la même toise ? N’est-ce pas comme si l’on voulait mesurer avec un gramme ou peser avec un mètre ? Et d’ailleurs, pourquoi parlons-nous de mesure ? Nous savons peut-être que tel fait est antérieur à tel autre, mais non de combien il est antérieur. Donc deux difficultés : 1° Pouvons-nous transformer le temps psychologique, qui est qualitatif, en un temps quantitatif ? 2° Pouvons-nous réduire à une même mesure des faits qui se passent dans des mondes différents ? III La première difficulté a été remarquée depuis longtemps ; elle a fait l’objet de longues discussions et on peut dire que la question est tranchée. Nous n’avons pas l’intuition directe de l’égalité de deux intervalles de temps. Les personnes qui croient posséder cette intuition sont dupes d’une illusion. Quand je dis, de midi à une heure, il s’est écoulé le même temps que de deux heures à trois heures, quel sens a cette affirmation ? La moindre réflexion montre qu’elle n’en a aucun par elle-même. Elle n’aura que celui que je voudrai bien lui donner, par une définition qui comportera certainement un certain degré d’arbitraire. Les psychologues auraient pu se passer de cette définition ; les physiciens, les astronomes ne le pouvaient pas ; voyons comment ils s’en sont tirés. Pour mesurer le temps, ils se servent du pendule et ils admettent par définition que tous les battements de ce pendule sont d’égale durée. Mais ce n’est là qu’une première approximation ; la température, la résistance de l’air, la pression barométrique font varier la marche du pendule. Si on échappait à ces causes d’erreur, on obtiendrait une approximation beaucoup plus grande, mais ce ne serait encore qu’une approximation. Des causes nouvelles, négligées jusqu’ici, électriques, magnétiques ou autres, viendraient apporter de petites perturbations. En fait, les meilleures horloges doivent être corrigées de temps en temps, et les corrections se font à l’aide des observations astronomiques ; on s’arrange pour que l’horloge sidérale marque la même heure quand la même étoile passe au méridien. En d’autres termes, c’est le jour sidéral, c’est-à-dire la durée de rotation de la terre, qui est l’unité constante du temps. On admet, par une définition nouvelle substituée à celle qui est tirée des battements du pendule, que deux rotations complètes de la terre autour de son axe ont même durée. Cependant les astronomes ne se sont pas contentés encore de cette définition. Beaucoup d’entre eux pensent que les marées agissent comme un frein sur notre globe, et que la rotation de la terre devient de plus en plus lente. Ainsi s’expliquerait l’accélération apparente du mouvement de la lune, qui paraîtrait aller plus vite que la théorie ne le lui permet parce que notre horloge, qui est la terre, retarderait. IV Tout cela importe peu, dira-t-on, sans doute nos instruments de mesure sont imparfaits, mais il suffit que nous puissions concevoir un instrument parfait. Cet idéal ne pourra être atteint, mais ce sera assez de l’avoir conçu et d’avoir ainsi mis la rigueur dans la définition de l’unité de temps. Le malheur est que cette rigueur ne s’y rencontre pas. Quand nous nous servons du pendule pour mesurer le temps, quel est le postulat que nous admettons implicitement ? C’est que la durée de deux phénomènes identiques est la même ; ou, si l’on aime mieux, que les mêmes causes mettent le même temps à produire les mêmes effets. Et c’est là au premier abord une bonne définition de l’égalité de deux durées. Prenons-y garde cependant. Est-il impossible que l’expérience démente un jour notre postulat ? Je m’explique ; je suppose qu’en un certain point du monde se passe le phénomène α, amenant pour conséquence au bout d’un certain temps l’effet α′. En un autre point du monde très éloigné du premier, se passe le phénomène β, qui amène comme conséquence l’effet β′. Les phénomènes α et β sont simultanés, de même que les effets α′ et β′. À une époque ultérieure, le phénomène α se reproduit dans des circonstances à peu près identiques et simultanément le phénomène β se reproduit aussi en un point très éloigné du monde et à peu près dans les mêmes circonstances. Les effets α′ et β′ vont aussi se reproduire. Je suppose que l’effet α′ ait lieu sensiblement avant l’effet β′. Si l’expérience nous rendait témoins d’un tel spectacle, notre postulat se trouverait démenti. Car l’expérience nous apprendrait que la première durée αα′ est égale à la première durée ββ′ et que la seconde durée αα′ est plus petite que la seconde durée ββ′. Au contraire notre postulat exigerait que les deux durées αα′ fussent égales entre elles, de même que les deux durées ββ′. L’égalité et l’inégalité déduites de l’expérience seraient incompatibles avec les deux égalités tirées du postulat. Or, pouvons-nous affirmer que les hypothèses que je viens de faire soient absurdes ? Elles n’ont rien de contraire au principe de contradiction. Sans doute elles ne sauraient se réaliser sans que le principe de raison suffisante semble violé. Mais pour justifier une définition aussi fondamentale, j’aimerais mieux un autre garant. V Mais ce n’est pas tout. Dans la réalité physique, une cause ne produit pas un effet, mais une multitude de causes distinctes contribuent à le produire, sans qu’on ait aucun moyen de discerner la part de chacune d’elles. Les physiciens cherchent à faire cette distinction ; mais ils ne la font qu’à peu près, et quelques progrès qu’ils fassent, ils ne la feront jamais qu’à peu près. Il est à peu près vrai que le mouvement du pendule est dû uniquement à l’attraction de la Terre ; mais en toute rigueur, il n’est pas jusqu’à l’attraction de Sirius qui n’agisse sur le pendule. Dans ces conditions, il est clair que les causes qui ont produit un certain effet ne se reproduiront jamais qu’à peu près. Et alors nous devons modifier notre postulat et notre définition. Au lieu de dire : « Les mêmes causes mettent le même temps à produire les mêmes effets. » Nous devons dire : « Des causes à peu près identiques mettent à peu près le même temps pour produire à peu près les mêmes effets. » Notre définition n’est donc plus qu’approchée. D’ailleurs, comme le fait très justement remarquer M. Calinon dans un mémoire récent (Étude sur les diverses grandeurs, Paris, Gauthier-Villars, 1897) : « Une des circonstances d’un phénomène quelconque est la vitesse de la rotation de la terre ; si cette vitesse de rotation varie, elle constitue, dans la reproduction de ce phénomène une circonstance qui ne reste plus identique à elle-même. Mais supposer cette vitesse de rotation constante, c’est supposer qu’on sait mesurer le temps. » Notre définition n’est donc pas encore satisfaisante ; ce n’est certainement pas celle qu’adoptent implicitement les astronomes dont je parlais plus haut, quand ils affirment que la rotation terrestre va en se ralentissant. Quel sens a dans leur bouche cette affirmation ? Nous ne pouvons le comprendre qu’en analysant les preuves qu’ils donnent de leur proposition. Ils disent d’abord que le frottement des marées produisant de la chaleur doit détruire de la force vive. Ils invoquent donc le principe des forces vives ou de la conservation de l’énergie. Ils disent ensuite que l’accélération séculaire de la lune, calculée d’après la loi de Newton, serait plus petite que celle qui est déduite des observations, si on ne faisait la correction relative au ralentissement de la rotation terrestre. Ils invoquent donc la loi de Newton. En d’autres termes, ils définissent la durée de la façon suivante : le temps doit être défini de telle façon que la loi de Newton et celle des forces vives soient vérifiées. La loi de Newton est une vérité d’expérience ; comme telle elle n’est qu’approximative, ce qui montre que nous n’avons encore qu’une définition par à peu près. Si nous supposons maintenant que l’on adopte une autre manière de mesurer le temps, les expériences sur lesquelles est fondée la loi de Newton n’en conserveraient pas moins le même sens. Seulement, l’énoncé de la loi serait différent, parce qu’il serait traduit dans un autre langage ; il serait évidemment beaucoup moins simple. De sorte que la définition implicitement adoptée par les astronomes peut se résumer ainsi : Le temps doit être défini de telle façon que les équations de la mécanique soient aussi simples que possible. En d’autres termes, il n’y a pas une manière de mesurer le temps qui soit plus vraie qu’une autre ; celle qui est généralement adoptée est seulement plus commode. De deux horloges, nous n’avons pas le droit de dire que l’une marche bien et que l’autre marche mal ; nous pouvons dire seulement qu’on a avantage à s’en rapporter aux indications de la première. La difficulté dont nous venons de nous occuper a été, je l’ai dit, souvent signalée ; parmi les ouvrages les plus récents où il en est question, je citerai, outre l’opuscule de M. Calinon, le traité de mécanique de M. Andrade. VI La seconde difficulté a jusqu’ici beaucoup moins attiré l’attention ; elle est cependant tout à fait analogue à la précédente ; et même, logiquement, j’aurais dû en parler d’abord. Deux phénomènes psychologiques se passent dans deux consciences différentes ; quand je dis qu’ils sont simultanés, qu’est-ce que je veux dire ? Quand je dis qu’un phénomène physique, qui se passe en dehors de toute conscience est antérieur ou postérieur à un phénomène psychologique, qu’est-ce que je veux dire ? En 1572, Tycho-Brahé remarqua dans le ciel une étoile nouvelle. Une immense conflagration s’était produite dans quelque astre très lointain ; mais elle s’était produite longtemps auparavant ; il avait fallu pour le moins deux cents ans, avant que la lumière partie de cette étoile eût atteint notre terre. Cette conflagration était donc antérieure à la découverte de l’Amérique. Eh bien, quand je dis cela, quand je considère ce phénomène gigantesque qui n’a peut-être eu aucun témoin, puisque les satellites de cette étoile n’ont peut-être pas d’habitants, quand je dis que ce phénomène est antérieur à la formation de l’image visuelle de l’île d’Española dans la conscience de Christophe Colomb, qu’est-ce que je veux dire ? Il suffit d’un peu de réflexion pour comprendre que toutes ces affirmations n’ont par elles-mêmes aucun sens. Elles ne peuvent en avoir un que par suite d’une convention. VII Nous devons d’abord nous demander comment on a pu avoir l’idée de faire rentrer dans un même cadre tant de mondes impénétrables les uns aux autres. Nous voudrions nous représenter l’univers extérieur, et ce n’est qu’à ce prix que nous croirions le connaître. Cette représentation, nous ne l’aurons jamais nous le savons : notre infirmité est trop grande. Nous voulons au moins que l’on puisse concevoir une intelligence infinie pour laquelle cette représentation serait possible, une sorte de grande conscience qui verrait tout, et qui classerait tout dans son temps, comme nous classons, dans notre temps, le peu que nous voyons. Cette hypothèse est bien grossière et incomplète ; car cette intelligence suprême ne serait qu’un demi-dieu ; infinie en un sens, elle serait limitée en un autre, puisqu’elle n’aurait du passé qu’un souvenir imparfait ; et elle n’en pourrait avoir d’autre, puisque sans cela tous les souvenirs lui seraient également présents et qu’il n’y aurait pas de temps pour elle. Et cependant quand nous parlons du temps, pour tout ce qui se passe en dehors de nous, n’adoptons-nous pas inconsciemment cette hypothèse ; ne nous mettons-nous pas à la place de ce dieu imparfait ; et les athées eux- mêmes ne se mettent-ils pas à la place où serait Dieu, s’il existait ? Ce que je viens de dire nous montre peut-être pourquoi nous avons cherché à faire rentrer tous les phénomènes physiques dans un même cadre. Mais cela ne peut passer pour une définition de la simultanéité, puisque cette intelligence hypothétique, si même elle existait, serait impénétrable pour nous. Il faut donc chercher autre chose. VIII Les définitions ordinaires qui conviennent pour le temps psychologique, ne pourraient plus nous suffire. Deux faits psychologiques simultanés sont liés si étroitement que l’analyse ne peut les séparer sans les mutiler. En est- il de même pour deux faits physiques ? Mon présent n’est-il pas plus près de mon passé d’hier que du présent de Sirius ? On a dit aussi que deux faits doivent être regardés comme simultanés quand l’ordre de leur succession peut être interverti à volonté. Il est évident que cette définition ne saurait convenir pour deux faits physiques qui se produisent à de grandes distances l’un de l’autre, et que, en ce qui les concerne, on ne comprend même plus ce que peut être cette réversibilité ; d’ailleurs, c’est d’abord la succession même qu’il faudrait définir. IX Cherchons donc à nous rendre compte de ce qu’on entend par simultanéité ou antériorité, et pour cela analysons quelques exemples. J’écris une lettre ; elle est lue ensuite par l’ami à qui je l’ai adressée. Voilà deux faits qui ont eu pour théâtre deux consciences différentes. En écrivant cette lettre, j’en ai possédé l’image visuelle, et mon ami a possédé à son tour cette même image en lisant la lettre. Bien que ces deux faits se passent dans des mondes impénétrables, je n’hésite pas à regarder le premier comme antérieur au second, parce que je crois qu’il en est la cause. J’entends le tonnerre, et je conclus qu’il y a eu une décharge électrique ; je n’hésite pas à considérer le phénomène physique comme antérieur à l’image sonore subie par ma conscience, parce que je crois qu’il en est la cause. Voilà donc la règle que nous suivons, et la seule que nous puissions suivre ; quand un phénomène nous apparaît comme la cause d’un autre, nous le regardons comme antérieur. C’est donc par la cause que nous définissons le temps ; mais le plus souvent, quand deux faits nous apparaissent liés par une relation constante, comment reconnaissons-nous lequel est la cause et lequel est l’effet ? Nous admettons que le fait antérieur, l’antécédent, est la cause de l’autre, du conséquent. C’est alors par le temps que nous définissons la cause. Comment se tirer de cette pétition de principe ? Nous disons tantôt post hoc, ergo propter hoc ; tantôt propter hoc, ergo post hoc ; sortira-t-on de ce cercle vicieux ? X Voyons donc, non pas comment on parvient à s’en tirer, car on n’y parvient pas complètement, mais comment on cherche à s’en tirer. J’exécute un acte volontaire A et je subis ensuite une sensation D, que je regarde comme une conséquence de l’acte A ; d’autre part, pour une raison quelconque, j’infère que cette conséquence n’est pas immédiate ; mais qu’il s’est accompli en dehors de ma conscience deux faits B et C dont je n’ai pas été témoin et de telle façon que B soit l’effet de A, que C soit celui de B, et D celui de C. Mais pourquoi cela ? Si je crois avoir des raisons pour regarder les quatre faits A, B, C, D, comme liés l’un à l’autre par un lien de causalité, pourquoi les ranger dans l’ordre causal A B C D et en même temps dans l’ordre chronologique A B C D plutôt que dans tout autre ordre ? Je vois bien que dans l’acte A j’ai le sentiment d’avoir été actif, tandis qu’en subissant la sensation D, j’ai celui d’avoir été passif. C’est pourquoi je regarde A comme la cause initiale et D comme l’effet ultime ; c’est pourquoi je range A au commencement de la chaîne et D à la fin ; mais pourquoi mettre B avant C plutôt que C avant B ? Si l’on se pose cette question, on répondra ordinairement : on sait bien que c’est B qui est la cause de C, puisqu’on voit toujours B se produire avant C. Ces deux phénomènes, quand on est témoin, se passent dans un certain ordre ; quand des phénomènes analogues se produisent sans témoin, il n’y a pas de raison pour que cet ordre soit interverti. Sans doute, mais qu’on y prenne garde ; nous ne connaissons jamais directement les phénomènes physiques B et C ; ce que nous connaissons, ce sont des sensations B′ et C′ produites respectivement par B et par C. Notre conscience nous apprend immédiatement que B′ précède C′ et nous admettons que B et C se succèdent dans le même ordre. Cette règle paraît en effet bien naturelle, et cependant on est souvent conduit à y déroger. Nous n’entendons le bruit du tonnerre que quelques secondes après la décharge électrique du nuage. De deux coups de foudre, l’un lointain, l’autre rapproché, le premier ne peut-il pas être antérieur au second, bien que le bruit du second nous parvienne avant celui du premier ? XI Autre difficulté ; avons-nous bien le droit de parler de la cause d’un phénomène ? si toutes les parties de l’univers sont solidaires dans une certaine mesure, un phénomène quelconque ne sera pas l’effet d’une cause unique, mais la résultante de causes infiniment nombreuses ; il est, dit-on souvent, la conséquence de l’état de l’univers un instant auparavant. Comment énoncer des règles applicables à des circonstances aussi complexes ? et pourtant ce n’est qu’à ce prix que ces règles pourront être générales et rigoureuses. Pour ne pas nous perdre dans cette infinie complexité, faisons une hypothèse plus simple ; considérons trois astres, par exemple, le Soleil, Jupiter et Saturne ; mais, pour plus de simplicité, regardons-les comme réduits à des points matériels et isolés du reste du monde. Les positions et les vitesses des trois corps à un instant donné suffisent pour déterminer leurs positions et leurs vitesses à l’instant suivant, et par conséquent à un instant quelconque. Leur position à l’instant t déterminent leurs positions à l’instant t + h, aussi bien que leurs positions à l’instant t – h. Il y a même plus ; la position de Jupiter à l’instant t, jointe à celle de Saturne à l’instant t + a, détermine la position de Jupiter à un instant quelconque et celle de Saturne à un instant quelconque. L’ensemble des positions qu’occupent Jupiter à l’instant t + ε et Saturne à l’instant t + a + ε est lié à l’ensemble des positions qu’occupent Jupiter à l’instant t et Saturne à l’instant t + a, par des lois aussi précises que celle de Newton, quoique plus compliquées. Dès lors pourquoi ne pas regarder l’un de ces ensembles comme la cause de l’autre, ce qui conduirait à considérer comme simultanés l’instant t de Jupiter et l’instant t + a de Saturne ? Il ne peut y avoir à cela que des raisons de commodités et de simplicité, fort puissantes, il est vrai. XII Mais passons à des exemples moins artificiels ; pour nous rendre compte de la définition implicitement admise par les savants, voyons-les à l’œuvre et cherchons suivant quelles règles ils recherchent la simultanéité. Je prendrai deux exemples simples ; la mesure de la vitesse de la lumière et la détermination des longitudes. Quand un astronome me dit que tel phénomène stellaire, que son télescope lui révèle en ce moment, s’est cependant passé il y a cinquante ans, je cherche ce qu’il veut dire et pour cela, je lui demanderai d’abord comment il le sait, c’est-à-dire comment il a mesuré la vitesse de la lumière. Il a commencé par admettre que la lumière a une vitesse constante, et en particulier que sa vitesse est la même dans toutes les directions. C’est là un postulat sans lequel aucune mesure de cette vitesse ne pourrait être tentée. Ce postulat ne pourra jamais être vérifié directement par l’expérience ; il pourrait être contredit par elle, si les résultats des diverses mesures n’étaient pas concordants. Nous devons nous estimer heureux que cette contradiction n’ait pas lieu et que les petites discordances qui peuvent se produire puissent s’expliquer facilement. Le postulat, en tout cas, conforme au principe de la raison suffisante, a été accepté par tout le monde ; ce que je veux retenir, c’est qu’il nous fournit une règle nouvelle pour la recherche de la simultanéité, entièrement différente de celle que nous avions énoncée plus haut. Ce postulat admis, voyons comment on a mesuré la vitesse de la lumière. On sait que Rœmer s’est servi des éclipses, des satellites de Jupiter, et a cherché de combien l’événement retardait sur la prédiction. Mais cette prédiction comment la fait-on ? C’est à l’aide des lois astronomiques, par exemple de la loi de Newton. Les faits observés ne pourraient-ils pas tout aussi bien s’expliquer si on attribuait à la vitesse de la lumière une valeur un peu différente de la valeur adoptée, et si on admettait que la loi de Newton n’est qu’approchée ? Seulement on serait conduit à remplacer la loi de Newton par une autre plus compliquée. Ainsi on adopte pour la vitesse de la lumière une valeur telle que les lois astronomiques compatibles avec cette valeur soient aussi simples que possible. Quand les marins ou les géographes déterminent une longitude, ils ont précisément à résoudre le problème qui nous occupe ; ils doivent, sans être à Paris, calculer l’heure de Paris. Comment s’y prennent-ils ? Ou bien ils emportent un chronomètre réglé à Paris. Le problème qualitatif de la simultanéité est ramené au problème quantitatif de la mesure du temps. Je n’ai pas à revenir sur les difficultés relatives à ce dernier problème, puisque j’y ai longuement insisté plus haut. Ou bien ils observent un phénomène astronomique tel qu’une éclipse de lune et ils admettent que ce phénomène est aperçu simultanément de tous les points du globe. Cela n’est pas tout à fait vrai, puisque la propagation de la lumière n’est pas instantanée ; si on voulait une exactitude absolue, il y aurait une correction à faire d’après une règle compliquée. Ou bien enfin, ils se servent du télégraphe. Il est clair d’abord que la réception du signal à Berlin, par exemple, est postérieure à l’expédition de ce même signal de Paris. C’est la règle de la cause et de l’effet analysée plus haut. Mais postérieure, de combien ? En général, on néglige la durée de la transmission et on regarde les deux événements comme simultanés. Mais, pour être rigoureux, il faudrait faire encore une petite correction par un calcul compliqué ; on ne la fait pas dans la pratique, parce qu’elle serait beaucoup plus faible que les erreurs d’observation ; sa nécessité théorique n’en subsiste pas moins à notre point de vue, qui est celui d’une définition rigoureuse. De cette discussion, je veux retenir deux choses : 1° Les règles appliquées sont très variées. 2° Il est difficile de séparer le problème qualitatif de la simultanéité du problème quantitatif de la mesure du temps ; soit qu’on se serve d’un chronomètre, soit qu’on ait à tenir compte d’une vitesse de transmission, comme celle de la lumière, car on ne saurait mesurer une pareille vitesse sans mesurer un temps. XIII Il convient de conclure. Nous n’avons pas l’intuition directe de la simultanéité, pas plus que celle de l’égalité de deux durées. Si nous croyons avoir cette intuition, c’est une illusion. Nous y suppléons à l’aide de certaines règles que nous appliquons presque toujours sans nous en rendre compte. Mais quelle est la nature de ces règles ? Pas de règle générale, pas de règle rigoureuse ; une multitude de petites règles applicables à chaque cas particulier. Ces règles ne s’imposent pas à nous et on pourrait s’amuser à en inventer d’autres ; cependant on ne saurait s’en écarter sans compliquer beaucoup l’énoncé des lois de la physique, de la mécanique, de l’astronomie. Nous choisissons donc ces règles, non parce qu’elles sont vraies, mais parce qu’elles sont les plus commodes, et nous pourrions les résumer en disant : « La simultanéité de deux événements, ou l’ordre de leur succession, l’égalité de deux durées, doivent être définies de telle sorte que l’énoncé des lois naturelles soit aussi simple que possible. En d’autres termes, toutes ces règles, toutes ces définitions ne sont que le fruit d’un opportunisme inconscient. »     CHAPITRE III La Notion d’Espace § 1. — INTRODUCTION Dans les articles que j’ai précédemment consacrés à l’espace, j’ai surtout insisté sur les problèmes soulevés par la géométrie non-euclidienne, en laissant presque complètement de côté d’autres questions plus difficiles à aborder, telles que celles qui se rapportent au nombre des dimensions. Toutes les géométries que j’envisageais avaient ainsi un fond commun, ce continuum à trois dimensions qui était le même pour toutes et qui ne se différenciait que par les figures qu’on y traçait ou quand on prétendait le mesurer. Dans ce continuum, primitivement amorphe, on peut imaginer un réseau de lignes et de surfaces, on peut convenir ensuite de regarder les mailles de ce réseau comme égales entre elles, et c’est seulement après cette convention que ce continuum, devenu mesurable, devient l’espace euclidien ou l’espace non-euclidien. De ce continuum amorphe peut donc sortir indifféremment l’un ou l’autre des deux espaces, de même que sur une feuille de papier blanc on peut tracer indifféremment une droite ou un cercle. Dans l’espace nous connaissons des triangles rectilignes dont la somme des angles est égale à deux droites ; mais nous connaissons également des triangles curvilignes dont la somme des angles est plus petite que deux droites. L’existence des uns n’est pas plus douteuse que celle des autres. Donner aux côtés des premiers le nom de droites, c’est adopter la géométrie euclidienne ; donner aux côtés des derniers le nom de droites, c’est adopter la géométrie non-euclidienne. De sorte que, demander quelle géométrie convient-il d’adopter, c’est demander : à quelle ligne convient-il de donner le nom de droite ? Il est évident que l’expérience ne peut résoudre une pareille question ; on ne demanderait pas, par exemple, à l’expérience de décider si je dois appeler une droite AB ou bien CD. D’un autre côté, je ne puis dire non plus que je n’ai pas le droit de donner le nom de droites aux côtés des triangles non-euclidiens, parce qu’ils ne sont pas conformes à l’idée éternelle de droite que je possède par intuition. Je veux bien que j’aie l’idée intuitive du côté du triangle euclidien, mais j’ai également l’idée intuitive du côté du triangle non euclidien. Pourquoi aurai-je le droit d’appliquer le nom de droite à la première de ces idées et pas à la seconde ? En quoi ces deux syllabes feraient-elles partie intégrante de cette idée intuitive ? Évidemment quand nous disons que la droite euclidienne est une vraie droite et que la droite non-euclidienne n’est pas une vraie droite, nous voulons dire tout simplement que la première idée intuitive correspond à un objet plus remarquable que la seconde. Mais comment jugeons-nous que cet objet est plus remarquable ? C’est ce que j’ai recherché dans Science et Hypothèse. C’est là que nous avons vu intervenir l’expérience ; si la droite euclidienne est plus remarquable que la droite non-euclidienne, c’est avant tout qu’elle diffère peu de certains objets naturels remarquables dont la droite non-euclidienne diffère beaucoup. Mais, dira-t-on, la définition de la droite non-euclidienne est artificielle ; essayons un instant de l’adopter, nous verrons que deux cercles de rayon différent recevront tous deux le nom de droites non-euclidiennes, tandis que de deux cercles de même rayon, l’un pourra satisfaire à la définition sans que l’autre y satisfasse, et alors si nous transportons une de ces soi-disant droites sans la déformer, elle cessera d’être une droite. Mais de quel droit considérons-nous comme égales ces deux figures que les géomètres euclidiens appellent deux cercles de même rayon ? C’est parce qu’en transportant l’une d’elles sans la déformer on peut la faire coïncider avec l’autre. Et pourquoi disons-nous que ce transport s’est effectué sans déformation ? Il est impossible d’en donner une bonne raison. Parmi tous les mouvements concevables, il y en a dont les géomètres euclidiens disent qu’ils ne sont pas accompagnés de déformation ; mais il y en a d’autres dont les géomètres non-euclidiens diraient qu’ils ne sont pas accompagnés de déformation. Dans les premiers, dits mouvements euclidiens, les droites euclidiennes restent des droites euclidiennes, et les droites non-euclidiennes ne restent pas des droites non- euclidiennes ; dans les mouvements de la seconde sorte, ou mouvements non-euclidiens, les droites non-euclidiennes restent des droites non- euclidiennes et les droites euclidiennes ne restent pas des droites euclidiennes. On n’a donc pas démontré qu’il était déraisonnable d’appeler droites les côtés des triangles non-euclidiens ; on a démontré seulement que cela serait déraisonnable si on continuait d’appeler mouvements sans déformation les mouvements euclidiens ; mais on aurait montré tout aussi bien qu’il serait déraisonnable d’appeler droites les côtés des triangles euclidiens si l’on appelait mouvements sans déformation les mouvements non-euclidiens. Maintenant quand nous disons que les mouvements euclidiens sont les vrais mouvements sans déformation, que voulons-nous dire ? Nous voulons dire simplement qu’ils sont plus remarquables que les autres ; et pourquoi sont-ils plus remarquables ? c’est parce que certains corps naturels remarquables, les corps solides, subissent des mouvements à peu près pareils. Et alors quand nous demandons : peut-on imaginer l’espace non- euclidien ? cela veut dire : pouvons-nous imaginer un monde où il y aurait des objets naturels remarquables affectant à peu près la forme des droites non-euclidiennes, et des corps naturels remarquables subissant fréquemment des mouvements à peu près pareils aux mouvements non- euclidiens ? J’ai montré dans Science et Hypothèse qu’à cette question il faut répondre oui. On a souvent observé que si tous les corps de l’Univers venaient à se dilater simultanément et dans la même proportion, nous n’aurions aucun moyen de nous en apercevoir, puisque tous nos instruments de mesure grandiraient en même temps que les objets mêmes qu’ils servent à mesurer. Le monde, après cette dilatation, continuerait son train sans que rien vienne nous avertir d’un événement aussi considérable. En d’autres termes, deux mondes qui seraient semblables l’un à l’autre (en entendant le mot similitude au sens du 3 e livre de géométrie) seraient absolument indiscernables. Mais il y a plus, non seulement des mondes seront indiscernables s’ils sont égaux ou semblables, c’est-à-dire si l’on peut passer de l’un à l’autre en changeant les axes de coordonnées, ou en changeant l’échelle à laquelle sont rapportées les longueurs ; mais ils seront encore indiscernables si l’on peut passer de l’un à l’autre par une « transformation ponctuelle » quelconque. Je m’explique. Je suppose qu’à chaque point de l’un corresponde un point de l’autre et un seul, et inversement ; et de plus que les coordonnées d’un point soient des fonctions continues, d’ailleurs tout à fait quelconques, des coordonnées du point correspondant. Je suppose d’autre part qu’à chaque objet du premier monde, corresponde dans le second un objet de même nature placé précisément au point correspondant. Je suppose enfin que cette correspondance réalisée à l’instant initial, se conserve indéfiniment. Nous n’aurions aucun moyen de discerner ces deux mondes l’un de l’autre. Quand on parle de la relativité de l’espace, on ne l’entend pas d’ordinaire dans un sens aussi large ; c’est ainsi cependant qu’il conviendrait de l’entendre. Si l’un de ces univers est notre monde euclidien, ce que ses habitants appelleront droite, ce sera notre droite euclidienne ; mais ce que les habitants du second monde appelleront droite, ce sera une courbe qui jouira des mêmes propriétés par rapport au monde qu’ils habitent et par rapport aux mouvements qu’ils appelleront mouvements sans déformation ; leur géométrie sera donc la géométrie euclidienne, mais leur droite ne sera pas notre droite euclidienne. Ce sera sa transformée par la transformation ponctuelle qui fait passer de notre monde au leur ; les droites de ces hommes ne seront pas nos droites, mais elles auront entre elles les mêmes rapports que nos droites entre elles, c’est dans ce sens que je dis que leur géométrie sera la nôtre. Si alors nous voulons à toute force proclamer qu’ils se trompent, que leur droite n’est pas la vraie droite, si nous ne voulons pas confesser qu’une pareille affirmation n’a aucun sens, du moins devrons- nous avouer que ces gens n’ont aucune espèce de moyen de s’apercevoir de leur erreur. § 2. — LA GÉOMÉTRIE QUALITATIVE Tout cela est relativement facile à comprendre et je l’ai déjà si souvent répété que je crois inutile de m’étendre davantage sur ce sujet. L’espace euclidien n’est pas une forme imposée à notre sensibilité, puisque nous pouvons imaginer l’espace non-euclidien ; mais les deux espaces euclidien et non-euclidien ont un fond commun, c’est ce continuum amorphe dont je parlais au début ; de ce continuum nous pouvons tirer soit l’espace euclidien, soit l’espace lobatchewskien, de même que nous pouvons, en y traçant une graduation convenable, transformer un thermomètre non gradué soit en thermomètre Fahrenheit, soit en thermomètre Réaumur. Et alors une question se pose : ce continuum amorphe, que notre analyse a laissé subsister, n’est-il pas une forme imposée à notre sensibilité ? Nous aurions élargi la prison dans laquelle cette sensibilité est enfermée, mais ce serait toujours une prison. Ce continu possède un certain nombre de propriétés, exemptes de toute idée de mesure. L’étude de ces propriétés est l’objet d’une science qui a été cultivée par plusieurs grands géomètres et en particulier par Riemann et Betti et qui a reçu le nom d’Analysis Sitûs. Dans cette science, on fait abstraction de toute idée quantitative et par exemple, si on constate que sur une ligne le point B est entre les points A et C, on se contentera de cette constatation et on ne s’inquiétera pas de savoir si la ligne ABC est droite ou courbe, ni si la longueur AB est égale à la longueur BC, ou si elle est deux fois plus grande. Les théorèmes de l’Analysis Sitûs ont donc ceci de particulier qu’ils resteraient vrais si les figures étaient copiées par un dessinateur malhabile qui altérerait grossièrement toutes les proportions et remplacerait les droites par des lignes plus ou moins sinueuses. En termes mathématiques, ils ne sont pas altérés par une « transformation ponctuelle » quelconque. On a dit souvent que la géométrie métrique était quantitative, tandis que la géométrie projective était purement qualitative ; cela n’est pas tout à fait vrai : ce qui distingue la droite des autres lignes, ce sont encore des propriétés qui restent quantitatives à certains égards. La véritable géométrie qualitative c’est donc l’Analysis Sitûs. Les mêmes questions qui se posaient à propos des vérités de la géométrie euclidienne, se posent de nouveau à propos des théorèmes de l’Analysis Sitûs. Peuvent-ils être obtenus par un raisonnement déductif ? Sont-ce des conventions déguisées ? Sont-ce des vérités expérimentales ? Sont-ils les caractères d’une forme imposée soit à notre sensibilité, soit à notre entendement ? Je veux simplement observer que les deux dernières solutions s’excluent, ce dont tout le monde ne s’est pas toujours bien rendu compte. Nous ne pouvons pas admettre à la fois qu’il est impossible d’imaginer l’espace à quatre dimensions et que l’expérience nous démontre que l’espace a trois dimensions. L’expérimentateur pose à la nature une interrogation : est-ce ceci ou cela ? et il ne peut la poser sans imaginer les deux termes de l’alternative. S’il était impossible de s’imaginer l’un de ces termes, il serait inutile et d’ailleurs impossible de consulter l’expérience. Nous n’avons pas besoin d’observation pour savoir que l’aiguille d’une horloge n’est pas sur la division 15 du cadran, puisque nous savons d’avance qu’il n’y en a que 12, et nous ne pourrions pas regarder à la division 15 pour voir si l’aiguille s’y trouve, puisque cette division n’existe pas. Remarquons également qu’ici les empiristes sont débarrassés de l’une des objections les plus graves qu’on peut diriger contre eux, de celle qui rend absolument vains d’avance tous leurs efforts pour appliquer leur thèse aux vérités de la géométrie euclidienne. Ces vérités sont rigoureuses et toute expérience ne peut être qu’approchée. En Analysis Sitûs les expériences approchées peuvent suffire pour donner un théorème rigoureux et, par exemple, si l’on voit que l’espace ne peut avoir ni deux ou moins de deux dimensions, ni quatre ou plus de quatre, on est certain qu’il en a exactement 3, car il ne saurait en avoir 2 et demi ou 3 et demi. De tous les théorèmes de l’Analysis Sitûs, le plus important est celui que l’on exprime en disant que l’espace a trois dimensions. C’est de celui-là que nous allons nous occuper, et nous poserons la question en ces termes : Quand nous disons que l’espace a trois dimensions, qu’est-ce que nous voulons dire ? § 3. — LE CONTINU PHYSIQUE À PLUSIEURS DIMENSIONS J’ai expliqué dans Science et Hypothèse d’où nous vient la notion de la continuité physique et comment a pu en sortir celle de la continuité mathématique. Il arrive que nous sommes capables de distinguer deux impressions l’une de l’autre, tandis que nous ne saurions distinguer chacune d’elles d’une même troisième. C’est ainsi que nous pouvons discerner facilement un poids de 12 grammes d’un poids de 10 grammes, tandis qu’un poids de 11 grammes ne saurait se distinguer ni de l’un, ni de l’autre. Une pareille constatation, traduite en symboles, s’écrirait :             A = B,  B = C,  A < C. Ce serait là la formule du continu physique, tel que nous le donne l’expérience brute, d’où une contradiction intolérable que l’on a levée par l’introduction du continu mathématique. Celui-ci est une échelle dont les échelons (nombres commensurables ou incommensurables) sont en nombre infini, mais sont extérieurs les uns aux autres, au lieu d’empiéter les uns sur les autres comme le font, conformément à la formule précédente, les éléments du continu physique. Le continu physique est pour ainsi dire une nébuleuse non résolue, les instruments les plus perfectionnés ne pourraient parvenir à la résoudre ; sans doute si on évaluait les poids avec une bonne balance, au lieu de les apprécier à la main, on distinguerait le poids de 11 grammes de ceux de 10 et de 12 grammes et notre formule deviendrait :             A < B, B < C, A < C. Mais on trouverait toujours entre A et B et entre B et C de nouveaux éléments D et E tels que :       A = D, D = B, A < B ; B = E, E = C, B < C, et la difficulté n’aurait fait que reculer et la nébuleuse ne serait toujours pas résolue ; c’est l’esprit seul qui peut la résoudre et c’est le continu mathématique qui est la nébuleuse résolue en étoiles. Jusqu’à présent toutefois nous n’avons pas introduit la notion du nombre des dimensions. Que voulons-nous dire quand nous disons qu’un continu mathématique ou qu’un continu physique a deux ou trois dimensions ? Il faut d’abord que nous introduisions la notion de coupure, en nous attachant d’abord à l’étude des continus physiques. Nous avons vu ce qui caractérise le continu physique, chacun des éléments de ce continu consiste en un ensemble d’impressions ; et il peut arriver ou bien qu’un élément ne peut pas être discerné d’un autre élément du même continu, si ce nouvel élément correspond à un ensemble d’impressions trop peu différentes, ou bien au contraire que la distinction est possible ; enfin il peut se faire que deux éléments, indiscernables d’un même troisième, peuvent néanmoins être discernés l’un de l’autre. Cela posé, si A et B sont deux éléments discernables d’un continu C, on pourra trouver une série d’éléments             E 1 , E 2 , ....., E n appartenant tous à ce même continu C et tels que chacun d’eux est indiscernable du précédent, que E 1 est indiscernable de A et E n indiscernable de B. On pourra donc aller de A à B par un chemin continu et sans quitter C. Si cette condition est remplie pour deux éléments quelconques A et B du continu C, nous pourrons dire que ce continu C est d’un seul tenant. Distinguons maintenant quelques-uns des éléments de C qui pourront ou bien être tous discernables les uns des autres, ou former eux-mêmes un ou plusieurs continus. L’ensemble des éléments ainsi choisis arbitrairement parmi tous ceux de C formera ce que j’appellerai la ou les coupures. Reprenons sur C deux éléments quelconques A et B. Ou bien nous pourrons encore trouver une série d’éléments             E 1 , E 2 , ....., E n tels : 1° qu’ils appartiennent tous à C ; 2° que chacun d’eux soit indiscernable du suivant ; E 1 indiscernable de A et E n de B ; 3° et en outre qu’aucun des éléments E ne soit indiscernable d’aucun des éléments de la coupure. Ou bien au contraire dans toutes les séries E 1 , E 2 , ....., E n satisfaisant aux deux premières conditions, il y aura un élément E indiscernable de l’un des éléments de la coupure. Dans le 1 er cas, nous pouvons aller de A à B par un chemin continu sans quitter C et sans rencontrer les coupures ; dans le second cas cela est impossible. Si alors pour deux éléments quelconques A et B du continu C, c’est toujours le premier cas qui se présente, nous dirons que C reste d’un seul tenant malgré les coupures. Ainsi si nous choisissons les coupures d’une certaine manière, d’ailleurs arbitraire, il pourra se faire ou bien que le continu reste d’un seul tenant ou qu’il ne reste pas d’un seul tenant ; dans cette dernière hypothèse nous dirons alors qu’il est divisé par les coupures. On remarquera que toutes ces définitions sont construites en partant uniquement de ce fait très simple, que deux ensembles d’impressions, tantôt peuvent être discernés, tantôt ne peuvent pas l’être. Cela posé, si pour diviser un continu, il suffit de considérer comme coupures un certain nombre d’éléments tous discernables les uns des autres, on dit que ce continu est à une dimension ; si au contraire pour diviser un continu, il est nécessaire de considérer comme coupures un système d’éléments formant eux-mêmes un ou plusieurs continus, nous dirons que ce continu est à plusieurs dimensions. Si pour diviser un continu C, il suffit de coupures formant un ou plusieurs continus à une dimension, nous dirons que C est un continu à deux dimensions ; s’il suffit de coupures, formant un ou plusieurs continus à deux dimensions au plus, nous dirons que C est un continu à trois dimensions ; et ainsi de suite. Pour justifier cette définition, il faut voir si c’est bien ainsi que les géomètres introduisent la notion des trois dimensions au début de leurs ouvrages. Or, que voyons-nous ? Le plus souvent ils commencent par définir les surfaces comme les limites des volumes, ou parties de l’espace, les lignes comme les limites des surfaces, les points comme limites des lignes, et ils affirment que le même processus ne peut être poussé plus loin. C’est bien la même idée ; pour diviser l’espace, il faut des coupures que l’on appelle surfaces ; pour diviser les surfaces il faut des coupures que l’on appelle lignes ; pour diviser les lignes, il faut des coupures que l’on appelle points ; on ne peut aller plus loin et le point ne peut être divisé, le point n’est pas un continu ; alors les lignes, qu’on peut diviser par des coupures qui ne sont pas des continus, seront des continus à une dimension ; les surfaces que l’on peut diviser par des coupures continues à une dimension, seront des continus à deux dimensions, enfin l’espace que l’on peut diviser par des coupures continues à deux dimensions sera un continu à trois dimensions. Ainsi la définition que je viens de donner ne diffère pas essentiellement des définitions habituelles ; j’ai tenu seulement à lui donner une forme applicable non au continu mathématique, mais au continu physique, qui est seul susceptible de représentation et cependant à lui conserver toute sa précision. On voit, d’ailleurs, que cette définition ne s’applique pas seulement à l’espace, que dans tout ce qui tombe sous nos sens, nous retrouvons les caractères du continu physique, ce qui permettrait la même classification ; il serait aisé d’y trouver des exemples de continus de quatre, de cinq dimensions, au sens de la définition précédente ; ces exemples se présentent d’eux-mêmes à l’esprit. J’expliquerais enfin, si j’en avais le temps, que cette science dont je parlais plus haut et à laquelle Riemann a donné le nom d’Analysis Sitûs, nous apprend à faire des distinctions parmi les continus d’un même nombre de dimensions et que la classification de ces continus repose encore sur la considération des coupures. De cette notion est sortie celle du continu mathématique à plusieurs dimensions de la même façon que le continu physique à une dimension avait engendré le continu mathématique à une dimension. La formule             A > C, A = B, B = C qui résumait les données brutes de l’expérience impliquait une contradiction intolérable. Pour s’en affranchir, il a fallu introduire une notion nouvelle en respectant d’ailleurs les caractères essentiels du continu physique à plusieurs dimensions. Le continu mathématique à une dimension comportait une échelle unique dont les échelons en nombre infini correspondaient aux diverses valeurs commensurables ou non d’une même grandeur. Pour avoir le continu mathématique à n dimensions, il suffira de prendre n pareilles échelles dont les échelons correspondront aux diverses valeurs de n grandeurs indépendantes appelées coordonnées. On aura ainsi une image du continu physique à n dimensions, et cette image sera aussi fidèle qu’elle peut l’être du moment qu’on ne veut pas laisser subsister la contradiction dont je parlais plus haut. § 4. — LA NOTION DE POINT Il semble maintenant que la question que nous nous posions au début est résolue. Quand nous disons que l’espace a trois dimensions, dira-t-on, nous voulons dire que l’ensemble des points de l’espace satisfait à la définition que nous venons de donner du continu physique à trois dimensions. Se contenter de cela, ce serait supposer que nous savons ce que c’est que l’ensemble des points de l’espace, ou même qu’un point de l’espace. Or, cela n’est pas aussi simple qu’on pourrait le croire. Tout le monde croit savoir ce que c’est qu’un point, et c’est même parce que nous le savons trop bien que nous croyons n’avoir pas besoin de le définir. Certes on ne peut pas exiger de nous que nous sachions le définir, car en remontant de définition en définition il faut bien qu’il arrive un moment où l’on s’arrête. Mais à quel moment doit-on s’arrêter ? On s’arrêtera d’abord quand on arrivera à un objet qui tombe sous nos sens ou que nous pouvons nous représenter ; la définition deviendra alors inutile, on ne définit pas le mouton à un enfant, on lui dit : voici un mouton. Et alors, nous devons nous demander s’il est possible de se représenter un point de l’espace. Ceux qui répondent oui ne réfléchissent pas qu’ils se représentent en réalité un point blanc fait avec la craie sur un tableau noir ou un point noir fait avec une plume sur un papier blanc, et qu’ils ne peuvent se représenter qu’un objet ou mieux les impressions que cet objet ferait sur leurs sens. Quand ils cherchent à se représenter un point, ils se représentent les impressions que leur feraient éprouver des objets très petits. Il est inutile d’ajouter que deux objets différents, quoique l’un et l’autre très petits, pourront produire des impressions extrêmement différentes, mais je n’insiste pas sur cette difficulté qui exigerait pourtant quelque discussion. Mais ce n’est pas de cela qu’il s’agit ; il ne suffit pas de se représenter un point, il faut se représenter tel point et avoir le moyen de le distinguer d’un autre point. Et en effet, pour que nous puissions appliquer à un continu la règle que j’ai exposée plus haut et par laquelle on peut reconnaître le nombre de ses dimensions, nous devons nous appuyer sur ce fait que deux éléments de ce continu tantôt peuvent et tantôt ne peuvent pas être discernés. Il faut donc que nous sachions dans certains cas nous représenter tel élément et le distinguer d’un autre élément. La question est de savoir si le point que je me représentais il y a une heure, est le même que celui que je me représente maintenant ou si c’est un point différent. En d’autres termes, comment savons-nous si le point occupé par l’objet A à l’instant α est le même que le point occupé par l’objet B à l’instant β, ou mieux encore, qu’est-ce que cela veut dire ? Je suis assis dans ma chambre, un objet est posé sur ma table ; je ne bouge pas pendant une seconde, personne ne touche à l’objet ; je suis tenté de dire que le point A qu’occupait cet objet au début de cette seconde est identique au point B qu’il occupe à la fin ; pas du tout : du point A au point B il y a 30 kilomètres, car l’objet a été entraîné dans le mouvement de la Terre. Nous ne pourrons savoir si un objet, très petit ou non, n’a pas changé de position absolue dans l’espace, et non seulement nous ne pouvons l’affirmer, mais cette affirmation n’a aucun sens et en tout cas ne peut correspondre à aucune représentation. Mais alors nous pouvons nous demander si la position relative d’un objet par rapport à d’autres objets a varié ou non, et d’abord si la position relative de cet objet par rapport à notre corps a varié ; si les impressions que nous cause cet objet n’ont pas changé, nous serons enclins à juger que cette position relative n’a pas changé non plus ; si elles ont changé, nous jugerons que cet objet a changé soit d’état, soit de position relative. Il reste à décider lequel des deux. J’ai expliqué dans Science et Hypothèse comment nous avons été amenés à distinguer les changements de position. J’y reviendrai d’ailleurs plus loin. Nous arrivons donc à savoir si la position relative d’un objet par rapport à notre corps est ou non restée la même. Si maintenant nous voyons que deux objets ont conservé leur position relative par rapport à notre corps, nous concluons que la position relative de ces deux objets l’un par rapport à l’autre n’a pas changé ; mais nous n’arrivons à cette conclusion que par un raisonnement indirect. La seule chose que nous connaissions directement c’est la position relative des objets par rapport à notre corps. A fortiori ce n’est que par un raisonnement indirect que nous croyons savoir (et encore cette croyance est-elle trompeuse) si la position absolue de l’objet a changé. En somme, le système d’axes de coordonnées auxquels nous rapportons naturellement tous les objets extérieurs, c’est un système d’axes invariablement lié à notre corps, et que nous transportons partout avec nous. Il est impossible de se représenter l’espace absolu ; quand je veux me représenter simultanément des objets et moi-même en mouvement dans l’espace absolu, en réalité je me représente moi-même immobile et regardant se mouvoir autour de moi divers objets et un homme qui est extérieur à moi, mais que je conviens d’appeler moi. La difficulté sera-t-elle résolue quand on consentira à tout rapporter à ces axes liés à notre corps ? Savons-nous cette fois ce que c’est qu’un point défini ainsi par sa position relative par rapport à nous. Bien des gens répondront oui et diront qu’ils « localisent » les objets extérieurs. Qu’est-ce à dire ? Localiser un objet, cela veut dire simplement se représenter les mouvements qu’il faudrait faire pour l’atteindre ; je m’explique ; il ne s’agit pas de se représenter les mouvements eux-mêmes dans l’espace, mais uniquement de se représenter les sensations musculaires qui accompagnent ces mouvements et qui ne supposent pas la préexistence de la notion d’espace. Si nous supposons deux objets différents qui viennent successivement occuper la même position relative par rapport à nous, les impressions que nous causeront ces deux objets seront très différentes ; si nous les localisons au même point, c’est simplement parce qu’il faut faire les mêmes mouvements pour les atteindre ; à part cela, on ne voit pas bien ce qu’ils pourraient avoir de commun. Mais, étant donné un objet, on peut concevoir plusieurs séries différentes de mouvements qui permettraient également de l’atteindre. Si alors nous nous représentons un point, en nous représentant la série des sensations musculaires qui accompagneraient les mouvements qui permettraient d’atteindre ce point, on aura plusieurs manières entièrement différentes de se représenter un même point. Si l’on ne veut pas se contenter de cette solution, si on veut faire intervenir par exemple les sensations visuelles à côté des sensations musculaires, on aura une ou deux manières de plus de se représenter ce même point et la difficulté n’aura fait qu’augmenter. De toutes façons, la question suivante se pose : pourquoi jugeons-nous que toutes ces représentations si différentes les unes des autres représentent pourtant un même point ? Autre remarque : je viens de dire que c’est à notre propre corps que nous rapportons naturellement les objets extérieurs ; que nous transportons pour ainsi dire partout avec nous un système d’axes auxquels nous rapportons tous les points de l’espace, et que ce système d’axes est comme invariablement lié à notre corps. On doit observer que rigoureusement l’on ne pourrait parler d’axes invariablement liés au corps que si les diverses parties de ce corps étaient elles-mêmes invariablement liées l’une à l’autre. Comme il n’en est pas ainsi, nous devons, avant de rapporter les objets extérieurs à ces axes fictifs, supposer notre corps ramené à la même attitude. § 5. — LA NOTION DU DÉPLACEMENT J’ai montré dans Science et Hypothèse le rôle prépondérant joué par les mouvements de notre corps dans la genèse de la notion d’espace. Pour un être complètement immobile, il n’y aurait ni espace, ni géométrie ; c’est en vain qu’autour de lui les objets extérieurs se déplaceraient, les variations que ces déplacements feraient subir à ses impressions ne seraient pas attribuées par cet être à des changements de position, mais à de simples changements d’état, cet être n’aurait aucun moyen de distinguer ces deux sortes de changements, et cette distinction, capitale pour nous, n’aurait aucun sens pour lui. Les mouvements que nous imprimons à nos membres ont pour effet de faire varier les impressions produites sur nos sens par les objets extérieurs ; d’autres causes peuvent également les faire varier ; mais nous sommes amenés à distinguer les changements produits par nos propres mouvements et nous les discernons facilement pour deux raisons : 1° parce qu’ils sont volontaires ; 2° parce qu’ils sont accompagnés de sensations musculaires. Ainsi nous répartissons naturellement les changements que peuvent subir nos impressions en deux catégories que j’ai appelées d’un nom peut- être impropre : 1° les changements internes, qui sont volontaires et accompagnés de sensations musculaires ; 2° les changements externes, dont les caractères sont opposés. Nous observons ensuite que parmi les changements externes, il y en a qui peuvent être corrigés grâce à un changement interne qui ramène tout à l’état primitif ; d’autres ne peuvent pas être corrigés de la sorte (c’est ainsi que quand un objet extérieur s’est déplacé, nous pouvons en nous déplaçant nous-mêmes nous replacer par rapport à cet objet dans la même situation relative de façon à rétablir l’ensemble des impressions primitives ; si cet objet ne s’est pas déplacé, mais a changé d’état, cela est impossible). De là une nouvelle distinction, parmi les changements externes : ceux qui peuvent être ainsi corrigés, nous les appelons changements de position ; et les autres, changements d’état. Supposons, par exemple, une sphère dont un hémisphère soit bleu et l’autre rouge ; elle nous présente d’abord l’hémisphère bleu ; puis elle tourne sur elle-même de façon à nous présenter l’hémisphère rouge. Soit maintenant un vase sphérique contenant un liquide bleu qui devient rouge par suite d’une réaction chimique. Dans les deux cas la sensation du rouge a remplacé celle du bleu ; nos sens ont éprouvé les mêmes impressions qui se sont succédé dans le même ordre, et pourtant ces deux changements sont regardés par nous comme très différents ; le premier est un déplacement, le second un changement d’état. Pourquoi ? Parce que dans le premier cas, il me suffit de tourner autour de la sphère pour me placer vis-à-vis de l’hémisphère rouge et rétablir la sensation rouge primitive. Bien plus, si les deux hémisphères, au lieu d’être rouge et bleu, avaient été jaune et vert, comment se serait traduite pour moi la rotation de la sphère ? Tout à l’heure le rouge succédait au bleu, maintenant le vert succède au jaune ; et cependant je dis que les deux sphères ont éprouvé la même rotation, que l’une comme l’autre ont tourné autour de leur axe ; je ne puis pourtant pas dire que le vert soit au jaune comme le rouge est au bleu ; comment alors suis-je conduit à juger que les deux sphères ont subi le même déplacement ? Évidemment, parce que, dans un cas comme dans l’autre, je puis rétablir la sensation primitive en tournant autour de la sphère, en faisant les mêmes mouvements, et je sais que j’ai fait les mêmes mouvements parce que j’ai éprouvé les mêmes sensations musculaires ; pour le savoir je n’ai donc pas besoin de savoir la géométrie d’avance et de me représenter les mouvements de mon corps dans l’espace géométrique. Autre exemple. Un objet s’est déplacé devant mon œil, son image se formait d’abord au centre de la rétine ; elle se forme ensuite au bord ; la sensation ancienne m’était apportée par une fibre nerveuse aboutissant au centre de la rétine ; la sensation nouvelle m’est apportée par une autre fibre nerveuse partant du bord de la rétine ; ces deux sensations sont qualitativement différentes ; et sans cela comment pourrais-je les distinguer ? Pourquoi alors suis-je conduit à juger que ces deux sensations, qualitativement différentes, représentent une même image qui s’est déplacée ? C’est parce que je puis suivre l’objet de l’œil et, par un déplacement de l’œil volontaire et accompagné de sensations musculaires, ramener l’image au centre de la rétine et rétablir la sensation primitive. Je suppose que l’image d’un objet rouge soit allée du centre A au bord B de la rétine, puis que l’image d’un objet bleu aille à son tour du centre A au bord B de la rétine ; je jugerai que ces deux objets ont subi le même déplacement. Pourquoi ? parce que, dans un cas comme dans l’autre, j’aurai pu rétablir la sensation primitive, et que pour cela j’aurai dû exécuter le même mouvement de l’œil, et je saurai que mon œil a exécuté le même mouvement parce que j’ai éprouvé les mêmes sensations musculaires. Si je ne pouvais mouvoir mon œil, aurais-je quelque raison d’admettre que la sensation du rouge au centre de la rétine est à la sensation du rouge au bord de la rétine, comme celle du bleu au centre est à celle du bleu au bord ? Je n’aurais que quatre sensations qualitativement différentes, et si l’on me demandait si elles sont liées par la proportion que je viens d’énoncer, la question me semblerait ridicule, tout comme si l’on me demandait s’il y a une proportion analogue entre une sensation auditive, une sensation tactile et une sensation olfactive. Envisageons maintenant les changements internes, c’est-à-dire ceux qui sont produits par les mouvements volontaires de notre corps et qui sont accompagnés de changements musculaires ; ils donneront lieu aux deux observations suivantes, analogues à celles que nous venons de faire au sujet des changements externes. 1° Je puis supposer que mon corps se soit transporté d’un point à un autre, mais en conservant la même attitude ; toutes les parties de ce corps ont donc conservé ou repris la même situation relative, bien que leur situation absolue dans l’espace ait varié ; je puis supposer également que non seulement la position de mon corps a changé, mais que son attitude n’est plus la même, que par exemple mes bras qui tout à l’heure étaient repliés soient maintenant allongés. Je dois donc distinguer les simples changements de position sans changement d’attitude, et les changements d’attitude. Les uns et les autres m’apparaissent sous forme de sensations musculaires. Comment alors suis- je amené à les distinguer ? C’est que les premiers peuvent servir à corriger un changement externe, et que les autres ne le peuvent pas ou du moins ne peuvent donner qu’une correction imparfaite. C’est là un fait que je vais expliquer, comme je l’expliquerais à quelqu’un qui saurait déjà la géométrie, mais il ne faut pas en conclure qu’il faut déjà savoir la géométrie pour faire cette distinction ; avant de la savoir, je constate le fait (expérimentalement pour ainsi dire) sans pouvoir l’expliquer. Mais pour faire la distinction entre les deux sortes de changement, je n’ai pas besoin d’expliquer le fait, il me suffit de le constater. Quoi qu’il en soit, l’explication est aisée. Supposons qu’un objet extérieur se soit déplacé ; si nous voulons que les diverses parties de notre corps reprennent par rapport à cet objet leur position relative initiale, il faut que ces diverses parties aient repris également leur position relative initiale les unes par rapport aux autres. Seuls les changements internes qui satisferont à cette dernière condition, seront susceptibles de corriger le changement externe produit par le déplacement de cet objet. Si donc la position relative de mon œil par rapport à mon doigt a changé, je pourrai bien ramener l’œil dans sa situation relative initiale par rapport à l’objet et rétablir ainsi les sensations visuelles primitives, mais alors la position relative du doigt par rapport à l’objet aura changé et les sensations tactiles ne seront pas rétablies. 2° Nous constatons également qu’un même changement externe peut être corrigé par deux changements internes correspondant à des sensations musculaires différentes. Ici encore je puis faire cette constatation sans savoir la géométrie : et je n’ai pas besoin d’autre chose, mais je vais donner l’explication du fait en employant le langage géométrique. Pour passer de la position A à la position B je puis prendre plusieurs chemins. Au premier de ces chemins correspondra une série S de sensations musculaires ; à un second chemin, correspondra une autre série S′′ de sensations musculaires qui généralement seront complètement différentes, puisque ce seront d’autres muscles qui seront entrés en jeu. Comment suis-je amené à regarder ces deux séries S et S′′ comme correspondant à un même déplacement AB ? C’est parce que ces deux séries sont susceptibles de corriger un même changement externe. À part cela, elle n’ont rien de commun. Considérons maintenant deux changements externes : α et β qui seront par exemple la rotation d’une sphère mi-partie bleue et rouge, et celle d’une sphère mi-partie jaune et verte ; ces deux changements n’ont rien de commun puisque l’un se traduit pour nous par le passage du bleu au rouge et l’autre par le passage du jaune au vert. Envisageons d’autre part deux séries de changements internes S et S′′ ; ils n’auront non plus rien de commun. Et cependant je dis que α et β correspondent au même déplacement, et que S et S′′ correspondent aussi au même déplacement. Pourquoi ? Tout simplement parce que S peut corriger β aussi bien que α et parce que α peut être corrigé par S′′ aussi bien que par S. Et alors une question se pose : si j’ai constaté que S corrige α et β et que S′′ corrige α, suis-je certain que S′′ corrige également β ? L’expérience peut seule nous apprendre si cette loi se vérifie. Si elle ne se vérifiait pas, au moins approximativement, il n’y aurait pas de géométrie, il n’y aurait pas d’espace, parce que nous n’aurions plus intérêt à classer les changements externes et internes comme je viens de le faire, et, par exemple à distinguer les changements d’état des changements de position. Il est intéressant de voir quel a été dans tout cela le rôle de l’expérience. Elle m’a montré qu’une certaine loi se vérifie approximativement. Elle ne m’a pas appris comment est l’espace et qu’il satisfait à la condition dont il s’agit. Je savais en effet, avant toute expérience, que l’espace satisfera à cette condition ou qu’il ne sera pas, je ne puis pas dire non plus que l’expérience m’a appris que la géométrie est possible ; je vois bien que la géométrie est possible puisqu’elle n’implique pas contradiction ; l’expérience m’a appris seulement que la géométrie est utile. § 6. — L’ESPACE VISUEL Bien que les impressions motrices aient, comme je viens de l’expliquer, eu une influence tout à fait prépondérante dans la genèse de la notion d’espace qui n’aurait jamais pris naissance sans elles, il ne sera pas sans intérêt d’examiner aussi le rôle des impressions visuelles et de rechercher combien « l’espace visuel » a de dimensions, et d’appliquer pour cela à ces impressions la définition du § 3. Une première difficulté se présente ; considérons une sensation colorée rouge affectant un certain point de la rétine ; et d’autre part une sensation colorée bleue affectant le même point de la rétine. Il faut bien que nous ayons quelque moyen de reconnaître que ces deux sensations, qualitativement différentes, ont quelque chose de commun. Or, d’après les considérations exposées dans le paragraphe précédent, nous n’avons pu le reconnaître que par les mouvements de l’œil et les observations auxquelles ils ont donné lieu. Si l’œil était immobile, ou si nous n’avions pas conscience de ses mouvements, nous n’aurions pu reconnaître que ces deux sensations de qualité différente avaient quelque chose de commun ; nous n’aurions pu en dégager ce qui leur donne un caractère géométrique. Les sensations visuelles, sans les sensations musculaires, n’auraient donc rien de géométrique, de sorte qu’on peut dire qu’il n’y a pas d’espace visuel pur. Pour lever cette difficulté, n’envisageons que des sensations de même nature, des sensations rouges, par exemple, ne différant les unes des autres que par le point de la rétine qu’elles affectent. Il est clair que je n’ai aucune raison pour faire un choix aussi arbitraire parmi toutes les sensations visuelles possibles, pour réunir dans une même classe toutes les sensations de même couleur, quel que soit le point de la rétine affecté. Je n’y aurais jamais songé, si je n’avais pas appris d’avance, par le moyen que nous venons de voir, à distinguer les changements d’état des changements de position, c’est-à-dire si mon œil était immobile. Deux sensations de même couleur affectant deux parties différentes de la rétine m’apparaîtraient comme qualitativement distinctes, au même titre que deux sensations de couleur différente. En me restreignant aux sensations rouges, je m’impose donc une limitation artificielle et je néglige systématiquement tout un côté de la question ; mais ce n’est que par cet artifice que je puis analyser l’espace visuel sans y mêler de sensation motrice. Imaginons une ligne tracée sur la rétine, et divisant en deux sa surface ; et mettons à part les sensations rouges affectant un point de cette ligne, ou celles qui en différent trop peu pour en pouvoir être discernées. L’ensemble de ces sensations formera une sorte de coupure que j’appellerai C, et il est clair que cette coupure suffit pour diviser l’ensemble des sensations rouges possibles, et que si je prends deux sensations rouges affectant deux points situés de part et d’autre de la ligne, je ne pourrai passer de l’une de ces sensations à l’autre d’une manière continue sans passer à un certain moment par une sensation appartenant à la coupure. Si donc la coupure a n dimensions, l’ensemble total de mes sensations rouges, ou si l’on veut, l’espace visuel total en aura n + 1. Maintenant, je distingue les sensations rouges affectant un point de la coupure C. L’ensemble de ces sensations formera une nouvelle coupure C′. Il est clair que celle-ci divisera la coupure C, en donnant toujours au mot diviser le même sens. Si donc la coupure C′ a n dimensions, la coupure C en aura n + 1 et l’espace visuel total n + 2. Si toutes les sensations rouges affectant un même point de la rétine étaient regardées comme identiques, la coupure C se réduisant à un élément unique aurait 0 dimension, et l’espace visuel en aurait 2. Et pourtant le plus souvent on dit que l’œil nous donne le sentiment d’une troisième dimension, et nous permet dans une certaine mesure de reconnaître la distance des objets. Quand on cherche à analyser ce sentiment, on constate qu’il se réduit soit à la conscience de la convergence des yeux, soit à celle de l’effort d’accommodation que fait le muscle ciliaire pour mettre l’image au point. Deux sensations rouges affectant le même point de la rétine ne seront donc regardées comme identiques que si elles sont accompagnées d’une même sensation de convergence et aussi d’une même sensation d’effort d’accommodation ou du moins de sensation de convergence et d’accommodation assez peu différentes pour ne pouvoir être discernées. À ce compte, la coupure C′ est elle-même un continu et la coupure C a plus d’une dimension. Mais il arrive justement que l’expérience nous apprend que, quand deux sensations visuelles sont accompagnées d’une même sensation de convergence, elles sont également accompagnées d’une même sensation d’accommodation. Si alors nous formons une nouvelle coupure C′′ avec toutes celles des sensations de la coupure C′ qui sont accompagnées d’une certaine sensation de convergence, d’après la loi précédente, elles seront toutes indiscernables et pourront être regardées comme identiques ; donc C′′ ne sera pas un continu et aura 0 dimension ; et comme C′′ divise C′ il en résultera que C′ en a une, C deux et que l’espace visuel total en a trois. Mais en serait-il de même si l’expérience nous avait appris le contraire et si une certaine sensation de convergence n’était pas toujours accompagnée d’une même sensation d’accommodation ? Dans ce cas deux sensations affectant le même point de la rétine et accompagnées d’un même sentiment de convergence, deux sensations qui par conséquent appartiendraient l’une et l’autre à la coupure C′′ pourraient néanmoins être discernées parce qu’elles seraient accompagnées de deux sensations d’accommodation différentes. Donc C′′ serait à son tour continu, et aurait une dimension (pour le moins) ; alors C′ en aurait deux, C trois et l’espace visuel total en aurait quatre. Va-t-on dire alors que c’est l’expérience qui nous apprend que l’espace a trois dimensions, puisque c’est en partant d’une loi expérimentale que nous sommes arrivés à lui en attribuer trois ? Mais nous n’avons fait là pour ainsi dire qu’une expérience de physiologie ; et même comme il suffirait d’adapter sur les yeux des verres de construction convenable pour faire cesser l’accord entre les sentiments de convergence et d’accommodation, allons-nous dire qu’il suffit de mettre des bésicles pour que l’espace ait quatre dimensions et que l’opticien qui les a construites a donné une dimension de plus à l’espace ? Évidemment non, tout ce que nous pouvons dire c’est que l’expérience nous a appris qu’il est commode d’attribuer à l’espace trois dimensions. Mais l’espace visuel n’est qu’une partie de l’espace, et dans la notion même de cet espace il y a quelque chose d’artificiel, comme je l’ai expliqué au début. Le véritable espace est l’espace moteur et c’est celui que nous examinerons dans le chapitre suivant.     CHAPITRE IV L’Espace et ses Trois Dimensions § 1. — LE GROUPE DES DÉPLACEMENTS Résumons brièvement les résultats obtenus. Nous nous proposions de rechercher ce qu’on veut dire quand on dit que l’espace a trois dimensions et nous nous sommes demandé d’abord ce que c’est qu’un continu physique et quand on peut dire qu’il a n dimensions. Si nous considérons divers systèmes d’impressions et que nous les comparions entre eux, nous reconnaissons souvent que deux de ces systèmes d’impressions ne peuvent être discernés (ce que l’on exprime d’ordinaire en disant qu’ils sont trop voisins l’un de l’autre, et que nos sens sont trop grossiers pour que nous puissions les distinguer) et nous constatons de plus que deux de ces systèmes peuvent quelquefois être discernés l’un de l’autre, bien qu’étant indiscernables d’un même troisième. S’il en est ainsi, on dit que l’ensemble de ces systèmes d’impressions forme un continu physique C. Et chacun de ces systèmes s’appellera un élément du continu C. Combien ce continu a-t-il de dimensions ? Prenons d’abord deux éléments A et B de C, et supposons qu’il existe une suite Σ d’éléments, appartenant tous au continu C, de telle façon que A et B soient les deux termes extrêmes de cette suite et que chaque terme de la suite soit indiscernable du précédent. Si l’on peut trouver une pareille suite Σ, nous dirons que A et B sont reliés entre eux ; et si deux éléments quelconques de C sont reliés entre eux, nous dirons que C est d’un seul tenant. Choisissons maintenant sur le continu C un certain nombre d’éléments d’une manière tout à fait arbitraire. L’ensemble de ces éléments s’appellera une coupure. Parmi les suites Σ qui relient A à B, nous distinguerons celles dont un élément est indiscernable d’un des éléments de la coupure (nous dirons que ce sont celles qui coupent la coupure) et celles dont tous les éléments sont discernables de tous ceux de la coupure. Si toutes les suites Σ qui relient A à B coupent la coupure, nous dirons que A et B sont séparés par la coupure, et que la coupure divise C. Si on ne peut pas trouver sur C deux éléments qui soient séparés par la coupure, nous dirons que la coupure ne divise pas C. Ces définitions posées, si le continu C peut être divisé par des coupures qui ne forment pas elles-mêmes un continu, ce continu C n’a qu’une dimension ; dans le cas contraire il en a plusieurs. Si pour diviser C, il suffit d’une coupure formant un continu à 1 dimension, C aura 2 dimensions, s’il suffit d’une coupure formant un continu à 2 dimensions, C aura 3 dimensions, etc. Grâce à ces définitions, on saura toujours reconnaître combien un continu physique quelconque a de dimensions. Il ne reste plus qu’à trouver un continu physique, qui soit pour ainsi dire équivalent à l’espace, de telle façon qu’à tout point de l’espace corresponde un élément de ce continu, et qu’à des points de l’espace très voisins les uns des autres, correspondent des éléments indiscernables. L’espace aura alors autant de dimensions que ce continu. L’intermédiaire de ce continu physique, susceptible de représentation, est indispensable ; parce que nous ne pouvons nous représenter l’espace et cela pour une foule de raisons. L’espace est un continu mathématique, il est infini, et nous ne pouvons nous représenter que des continus physiques et des objets finis. Les divers éléments de l’espace, que nous appelons points, sont tous semblables entre eux, et, pour appliquer notre définition, il faut que nous sachions discerner les éléments les uns des autres, au moins s’ils ne sont pas trop voisins. Enfin l’espace absolu est un non-sens, et il nous faut commencer par le rapporter à un système d’axes invariablement liés à notre corps (que nous devons toujours supposer ramené à une même attitude). J’ai cherché ensuite à former avec nos sensations visuelles un continu physique équivalent à l’espace ; cela est facile sans doute et cet exemple est particulièrement approprié à la discussion du nombre des dimensions ; cette discussion nous a permis de voir dans quelle mesure il est permis de dire que « l’espace visuel » a trois dimensions. Seulement cette solution est incomplète et artificielle, j’ai expliqué pourquoi, et ce n’est pas sur l’espace visuel, mais sur l’espace moteur qu’il faut faire porter notre effort. J’ai rappelé ensuite quelle est l’origine de la distinction que nous faisons entre les changements de position et les changements d’état. Parmi les changements qui se produisent dans nos impressions, nous distinguons d’abord les changements internes volontaires et accompagnés de sensations musculaires et les changements externes, dont les caractères sont opposés. Nous constatons qu’il peut arriver qu’un changement externe soit corrigé par un changement interne qui rétablit les sensations primitives. Les changements externes susceptibles d’être corrigés par un changement interne s’appellent changements de position, ceux qui n’en sont pas susceptibles s’appellent changements d’état. Les changements internes susceptibles de corriger un changement externe s’appellent déplacements du corps en bloc ; les autres s’appellent changement d’attitude. Soient maintenant α et β deux changements externes, α′ et β′ deux changements internes. Supposons que α puisse être corrigé soit par α′, soit par β′ ; et que α′ puisse corriger soit α, soit β ; l’expérience nous apprend alors que β′ peut également corriger β. Dans ce cas nous dirons que α et β correspondent au même déplacement et de même que α′ et β′ correspondent au même déplacement. Cela posé, nous pouvons imaginer un continu physique que nous appellerons le continu ou le groupe des déplacements et que nous définirons de la façon suivante. Les éléments de ce continu seront les changements internes susceptibles de corriger un changement externe. Deux de ces changements internes α′ et β′ seront regardés comme indiscernables : 1° s’ils le sont naturellement, c’est-à-dire s’ils sont trop voisins l’un de l’autre ; 2° si α′ est susceptible de corriger le même changement externe qu’un troisième changement interne naturellement indiscernable de β′. Dans ce second cas, ils seront pour ainsi dire indiscernables par convention, je veux dire en convenant de faire abstraction des circonstances qui pourraient les faire distinguer. Notre continu est maintenant entièrement défini, puisque nous connaissons ses éléments et que nous avons précisé dans quelles conditions ils peuvent être regardés comme indiscernables. Nous avons ainsi tout ce qu’il faut pour appliquer notre définition et déterminer combien ce continu a de dimensions. Nous reconnaîtrons qu’il en a six. Le continu des déplacements n’est donc pas équivalent à l’espace, puisque le nombre des dimensions n’est pas le même, il est seulement apparenté à l’espace. Comment savons-nous maintenant que ce continu des déplacements a six dimensions ; nous le savons par expérience. Il serait aisé de décrire les expériences par lesquelles nous pourrions arriver à ce résultat. On verrait qu’on peut dans ce continu pratiquer des coupures qui le divisent et qui sont des continus ; qu’on peut diviser ces coupures elles-mêmes par d’autres coupures du second ordre qui sont encore des continus, et qu’on ne serait arrêté qu’après les coupures du sixième ordre qui ne seraient plus des continus. D’après nos définitions cela voudrait dire que le groupe des déplacements a six dimensions. Cela serait aisé, ai-je dit, mais cela serait assez long ; et ne serait-ce pas un peu superficiel ? Ce groupe des déplacements, nous l’avons vu, est apparenté à l’espace et on pourrait en déduire l’espace, mais il n’est pas équivalent à l’espace puisqu’il n’a pas le même nombre de dimensions ; et quand nous aurons montré comment la notion de ce continu peut se former et comment on peut en déduire celle de l’espace, on pourrait toujours se demander pourquoi l’espace à trois dimensions nous est beaucoup plus familier que ce continu à six dimensions, et douter par conséquent que ce soit par ce détour, que s’est formée dans l’esprit humain la notion d’espace. § 2. — IDENTITÉ DE DEUX POINTS Qu’est-ce qu’un point ? Comment saurons-nous si deux points de l’espace sont identiques ou différents ? Ou, en d’autres termes ; quand je dis : l’objet A occupait à l’instant α le point qu’occupe l’objet B à l’instant β, qu’est-ce que cela veut dire ? Tel est le problème que nous nous sommes posé au chapitre précédent, § 4. Comme je l’ai expliqué, il ne s’agit pas de comparer les positions des objets A et B dans l’espace absolu ; la question n’aurait alors manifestement aucun sens ; il s’agit de comparer les positions de ces deux objets par rapport à des axes invariablement liés à mon corps, en supposant toujours ce corps ramené à la même attitude. Je suppose qu’entre les instants α et β, je n’aie bougé ni mon corps, ni mon œil, ce dont je suis averti par mon sens musculaire. Je n’ai remué non plus ni ma tête, ni mon bras, ni ma main. Je constate qu’à l’instant α des impressions que j’attribuais à l’objet A m’étaient transmises les unes par une des fibres de mon nerf optique, les autres par un des nerfs sensitifs tactiles de mon doigt ; je constate qu’à l’instant β, d’autres impressions que j’attribue à l’objet B me sont transmises, les unes par cette même fibre du nerf optique, les autres par ce même nerf tactile. Il est nécessaire ici de m’arrêter pour une explication ; comment suis-je averti que cette impression que j’attribue à A, et celle que j’attribue à B et qui sont qualitativement différentes me sont transmises par le même nerf ? Doit-on supposer, pour prendre par exemple les sensations visuelles, que A produit deux sensations simultanées, une sensation purement lumineuse a et une sensation colorée a′, que B produit de même simultanément une sensation lumineuse b et une sensation colorée b′, que si ces diverses sensations me sont transmises par une même fibre rétinienne, a est identique à b, mais qu’en général les sensations colorées a′ et b′ produites par des corps différents sont différentes. Dans ce cas ce serait l’identité de la sensation a qui accompagne a′ avec la sensation b qui accompagne b′, ce serait cette identité, dis-je, qui nous avertirait que toutes ces sensations me sont transmises par la même fibre. Quoi qu’il en soit de cette hypothèse, et bien que je sois porté à en préférer d’autres notablement plus compliquées, il est certain que nous sommes avertis de quelque façon qu’il y a quelque chose de commun entre ces sensations a + a′ et b + b′, sans quoi nous n’aurions aucun moyen de reconnaître que l’objet B a pris la place de l’objet A. Je n’insiste donc pas davantage et je rappelle l’hypothèse que je viens de faire : je suppose que j’aie constaté que les impressions que j’attribue à B me sont transmises à l’instant β par ces mêmes fibres tant optiques que tactiles qui, à l’instant α, m’avaient transmis les impressions que j’attribuais à A. S’il en est ainsi, nous n’hésiterons pas à déclarer que le point occupé par B à l’instant β est identique au point occupé par A à l’instant α. Je viens d’énoncer deux conditions pour que ces deux points soient identiques ; l’une est relative à la vue, l’autre au toucher. Considérons-les séparément. La première est nécessaire, mais n’est pas suffisante. La seconde est à la fois nécessaire et suffisante. Quelqu’un qui saurait la géométrie, l’expliquerait aisément de la manière suivante : Soit O le point de la rétine où se forme à l’instant α l’image du corps A ; soit M le point de l’espace occupé à l’instant α par ce corps A ; soit M′ le point de l’espace occupé à l’instant β par le corps B. Pour que ce corps B forme son image en O, il n’est pas nécessaire que les points M et M′ coïncident : comme la vue s’exerce à distance, il suffit que les trois points O M M′ soient en ligne droite. Cette condition que les deux objets forment leur image en O est donc nécessaire, mais non suffisante pour que les points M et M′ coïncident. Soit maintenant P le point occupé par mon doigt et où il reste puisqu’il ne bouge pas. Comme le toucher ne s’exerce pas à distance, si le corps A touche mon doigt à l’instant α, c’est que M et P coïncident ; si B touche mon doigt à l’instant β, c’est que M′ et P coïncident. Donc M et M′ coïncident. Donc cette condition que si A touche mon doigt à l’instant α, B le touche à l’instant β, est à la fois nécessaire et suffisante pour que M et M′ coïncident. Mais nous qui ne savons pas encore la géométrie, nous ne pouvons raisonner comme cela ; tout ce que nous pouvons faire, c’est de constater expérimentalement que la première condition relative à la vue peut être remplie sans que le soit la seconde, qui est relative au toucher, mais que la seconde ne peut pas être remplie sans que la première le soit. Supposons que l’expérience nous ait appris le contraire. Cela se pourrait, et cette hypothèse n’a rien d’absurde. Supposons donc que nous ayons constaté expérimentalement que la condition relative au toucher peut être remplie sans que celle de la vue le soit et que celle de la vue au contraire ne peut pas l’être sans que celle du toucher le soit. Il est clair que, s’il en était ainsi, nous conclurions que c’est le toucher qui peut s’exercer à distance, et que la vue ne s’exerce pas à distance. Mais ce n’est pas tout ; jusqu’ici j’ai supposé que pour déterminer la place d’un objet, je faisais usage seulement de mon œil et d’un seul doigt ; mais j’aurais tout aussi bien pu employer d’autres moyens, par exemple tous mes autres doigts. Je suppose que mon premier doigt reçoive à l’instant α une impression tactile que j’attribue à l’objet A. Je fais une série de mouvements, correspondant à une série S de sensations musculaires. À la suite de ces mouvements, à l’instant α, mon second doigt reçoit une impression tactile que j’attribue également à A. Ensuite, à l’instant β, sans que j’aie bougé, ce dont m’avertit mon sens musculaire, ce même second doigt me transmet de nouveau une impression tactile que j’attribue cette fois à l’objet B ; je fais ensuite une série de mouvements correspondant à une série S′ de sensations musculaires. Je sais que cette série S′ est inverse de la série S et correspond à des mouvements contraires. Comment le sais-je, c’est parce que des expériences antérieures multiples m’ont souvent montré que si je faisais successivement les deux séries de mouvements correspondant à S et à S′, les impressions primitives se rétablissaient, c’est-à-dire que les deux séries se compensaient mutuellement. Cela posé, dois-je m’attendre à ce qu’à l’instant β′, quand la seconde série de mouvements sera terminée, mon premier doigt éprouve une impression tactile attribuable à l’objet B ? Pour répondre à cette question, ceux qui sauraient déjà la géométrie raisonneraient comme il suit. Il y a des chances pour que l’objet A n’ait pas bougé entre les instants α et α′, ni l’objet B entre les instants β et β′ ; admettons-le. À l’instant α, l’objet A occupait un certain point M de l’espace. Or à cet instant, il touchait mon premier doigt, et comme le toucher ne s’exerce pas à distance, mon premier doigt était également au point M. J’ai fait ensuite la série S de mouvements et à la fin de cette série, à l’instant α′, j’ai constaté que l’objet A touchait mon second doigt. J’en conclus que ce second doigt se trouvait alors en M, c’est-à-dire que les mouvements S avaient pour effet d’amener le second doigt à la place du premier. À l’instant β, l’objet B est venu au contact de mon second doigt : comme je n’ai pas bougé, ce second doigt est resté en M ; donc l’objet B est venu en M ; par hypothèse il ne bouge pas jusqu’à l’instant β′. Mais entre les instants β et β′ j’ai fait les mouvements S′ ; comme ces mouvements sont inverses des mouvements S, ils doivent avoir pour effet d’amener le premier doigt à la place du second. À l’instant β′, ce premier doigt sera donc en M ; et comme l’objet B est également en M cet objet B touchera mon premier doigt. À la question posée, on doit donc répondre oui. Pour nous, qui ne savons pas encore la géométrie, nous ne pouvons pas raisonner de la sorte, mais nous constatons que cette prévision se réalise d’ordinaire ; et nous pouvons toujours expliquer les exceptions en disant que l’objet A a bougé entre les instants α et α′, ou l’objet B entre les instants β et β′. Mais l’expérience n’aurait-elle pu donner un résultat contraire ; ce résultat contraire aurait-il été absurde en soi ? Évidemment non. Qu’aurions-nous fait alors si l’expérience avait donné ce résultat contraire ? Toute géométrie serait-elle ainsi devenue impossible ? pas le moins du monde : nous nous serions bornés à conclure que le toucher peut s’exercer à distance. Quand je dis, le toucher ne s’exerce pas à distance, mais la vue s’exerce à distance, cette assertion n’a qu’un sens qui est le suivant. Pour reconnaître si B occupe à l’instant β, le point occupé par A à l’instant α, je puis me servir d’une foule de critères différents ; dans l’un intervient mon œil, dans l’autre mon premier doigt, dans l’autre mon second doigt, etc. Eh bien, il suffit que le critère relatif à l’un de mes doigts soit satisfait pour que tous les autres le soient, mais il ne suffit pas que le critère relatif à l’œil le soit. Voilà le sens de mon assertion, je me borne à affirmer un fait expérimental qui se vérifie d’ordinaire. Nous avons analysé à la fin du chapitre précédent l’espace visuel ; nous avons vu que pour engendrer cet espace, il faut faire intervenir les sensations rétiniennes, la sensation de convergence, et la sensation d’accommodation ; que si ces deux dernières n’étaient pas toujours d’accord, l’espace visuel aurait quatre dimensions au lieu de trois ; et d’autre part que si l’on ne faisait intervenir que les sensations rétiniennes, on obtiendrait « l’espace visuel simple » qui n’aurait que deux dimensions. D’un autre côté, envisageons l’espace tactile, en nous bornant aux sensations d’un seul doigt, c’est-à-dire en somme l’ensemble des positions que peut occuper ce doigt. Cet espace tactile que nous analyserons dans le paragraphe suivant et sur lequel je demanderai en conséquence la permission de ne pas m’expliquer davantage pour le moment, cet espace tactile, dis-je, a trois dimensions. Pourquoi l’espace proprement dit a-t-il autant de dimensions que l’espace tactile et en a-t-il plus que l’espace visuel simple ? C’est parce que le toucher ne s’exerce pas à distance, tandis que la vue s’exerce à distance. Ces deux assertions n’ont qu’un seul et même sens et nous venons de voir quel était ce sens. Je reviens maintenant sur un point sur lequel j’avais glissé rapidement pour ne pas interrompre la discussion. Comment savons-nous que les impressions faites sur notre rétine par A à l’instant α et par B à l’instant β nous sont transmises par une même fibre rétinienne, bien que ces impressions soient qualitativement différentes ? J’ai émis une hypothèse simple, mais en ajoutant que d’autres hypothèses, notablement plus compliquées, me paraissaient plus probablement exactes. Voici quelles sont ces hypothèses, dont j’ai déjà dit un mot. Comment savons-nous que les impressions produites par l’objet rouge A à l’instant α, et par l’objet bleu B à l’instant β, si ces deux objets ont formé leur image au même point de la rétine, comment savons-nous, dis-je, que ces impressions ont quelque chose de commun ? On peut rejeter l’hypothèse simple que j’avais faite plus haut et admettre que ces deux impressions, qualitativement différentes, me sont transmises par deux fibres nerveuses différentes quoique contiguës. Quel moyen ai-je alors de savoir que ces fibres sont contiguës ? Il est probable que nous n’en aurions aucun si l’œil était immobile. Ce sont les mouvements de l’œil qui nous ont appris qu’il y a la même relation entre la sensation de bleu au point A et la sensation de bleu au point B de la rétine qu’entre la sensation de rouge au point A et la sensation de rouge au point B. Ils nous ont montré en effet que les mêmes mouvements, correspondant aux mêmes sensations musculaires, nous font passer de la première à la deuxième, ou de la troisième à la quatrième. Je n’insiste pas sur ces considérations qui se rattachent comme on le voit à la question des signes locaux soulevée par Lotze. § 3. — L’ESPACE TACTILE Je sais ainsi reconnaître l’identité de deux points, le point occupé par A à l’instant α et le point occupé par B à l’instant β, mais à une condition, c’est que je n’aie pas bougé entre les instants α et β. Cela ne suffit pas pour notre objet. Supposons donc que j’aie remué d’une manière quelconque dans l’intervalle de ces deux instants, comment saurai-je si le point occupé par A à l’instant α est identique au point occupé par B à l’instant β ? Je suppose qu’à l’instant α, l’objet A était au contact de mon premier doigt et que de même, à l’instant β, l’objet B touche ce premier doigt ; mais en même temps, mon sens musculaire m’a averti que dans l’intervalle mon corps a bougé. J’ai envisagé plus haut deux séries de sensations musculaires S et S′ et j’ai dit qu’il arrive quelquefois qu’on est conduit à envisager deux pareilles séries S et S′ comme inverses l’une de l’autre parce que nous avons souvent observé que quand ces deux séries se succèdent nos impressions primitives sont rétablies. Si alors mon sens musculaire m’avertit que j’ai bougé entre les deux instants α et β, mais de façon à ressentir successivement les deux séries de sensations musculaires S et S′ que je considère comme inverses ; je conclurai encore, tout comme si je n’avais pas bougé, que les points occupés par A à l’instant α et par B à l’instant β sont identiques, si je constate que mon premier doigt touche A à l’instant α et B à l’instant β. Cette solution n’est pas encore complètement satisfaisante comme on va le voir. Voyons en effet combien de dimensions elle nous ferait attribuer à l’espace. Je veux comparer les deux points occupés par A et B aux instants α et β, ou (ce qui revient au même puisque je suppose que mon doigt touche A à l’instant α et B à l’instant β) je veux comparer les deux points occupés par mon doigt aux deux instants α et β. Le seul moyen dont je dispose pour cette comparaison est la série Σ des sensations musculaires qui ont accompagné les mouvements de mon corps entre ces deux instants. Les diverses séries Σ imaginables forment évidemment un continu physique dont le nombre de dimensions est très grand. Convenons, comme je l’ai fait, de ne pas considérer comme distinctes les deux séries Σ et Σ + S + S′ lorsque les deux séries S et S′ seront inverses l’une de l’autre au sens donné plus haut à ce mot ; malgré cette convention, l’ensemble des séries Σ distinctes formera encore un continu physique et le nombre des dimensions sera moindre mais encore très grand. À chacune de ces séries Σ correspond un point de l’espace ; à deux séries Σ et Σ′ correspondront ainsi deux points M et M′. Les moyens dont nous disposons jusqu’ici nous permettent de reconnaître que M et M′ ne sont pas distincts dans deux cas : 1° si Σ est identique à Σ′ ; 2° si Σ′ = Σ + S + S′, S et S′ étant inverses l’une de l’autre. Si, dans tous les autres cas, nous regardions M et M′ comme distincts, l’ensemble des points aurait autant de dimensions que l’ensemble des séries Σ distinctes, c’est-à-dire beaucoup plus de 3. Pour ceux qui savent déjà la géométrie, il serait aisé de le leur faire comprendre en raisonnant comme il suit. Parmi les séries de sensations musculaires imaginables, il y en a qui correspondent à des séries de mouvements où le doigt ne bouge pas. Je dis que si l’on ne considère pas comme distinctes les séries Σ et Σ + σ où la série σ correspond à des mouvements où le doigt ne bouge pas, l’ensemble des séries constituera un continu à trois dimensions, mais que si on regarde deux séries Σ et Σ′ comme distinctes à moins que Σ′ = Σ + S + S′, S et S′ étant inverses, l’ensemble des séries constituera un continu à plus de trois dimensions. Soit en effet dans l’espace une surface A, sur cette surface une ligne B, sur cette ligne un point M ; soit C 0 l’ensemble de toutes les séries Σ, soit C 1 l’ensemble de toutes les séries Σ telles qu’à la fin des mouvements correspondants le doigt se trouve sur la surface A et de même soient C 2 ou C 3 l’ensemble des séries Σ telles qu’à la fin le doigt se trouve sur B, ou en M. Il est clair d’abord que C 1 constituera une coupure qui divisera C 0 , que C 2 sera une coupure qui divisera C 1 et C 3 une coupure qui divisera C 2 . Il résulte de là, d’après nos définitions, que si C 3 est un continu à n dimensions, C 0 sera un continu physique à n + 3 dimensions. Soient donc Σ et Σ′ = Σ + σ deux séries faisant partie de C 3  ; pour toutes deux à la fin des mouvements, le doigt se trouve en M ; il en résulte qu’au commencement et à la fin de la série σ, le doigt est au même point M. Cette série σ est donc une de celles qui correspondent à des mouvements où le doigt ne bouge pas. Si l’on ne regarde pas Σ et Σ + σ comme distinctes, toutes les séries de C 3 se confondront en une seule ; donc C 3 aura 0 dimension et C 0 , comme je voulais le démontrer en aura 3. Si au contraire je ne regarde pas Σ et Σ + σ comme confondues (à moins que σ = S + S′, S et S′ étant inverses) il est clair que C 3 contiendra un grand nombre de séries de sensations distinctes ; car sans que le doigt bouge, le corps peut prendre une foule d’attitudes différentes. Alors C 3 formera un continu et C 0 aura plus de trois dimensions et c’est encore ce que je voulais démontrer. Nous qui ne savons pas encore la géométrie, nous ne pouvons pas raisonner de la sorte ; nous ne pouvons que constater. Mais alors une question se pose ; comment, avant de savoir la géométrie, avons-nous été amenés à distinguer des autres ces séries σ où le doigt ne bouge pas ; ce n’est en effet qu’après avoir fait cette distinction que nous pourrons être conduits à regarder Σ et Σ + σ comme identiques, et c’est à cette condition seulement, comme nous venons de le voir, que nous pouvons arriver à l’espace à trois dimensions. Nous sommes amenés à distinguer les séries σ, parce qu’il arrive souvent que quand nous avons exécuté les mouvements qui correspondent à ces séries σ de sensations musculaires, les sensations tactiles qui nous sont transmises par le nerf du doigt que nous avons appelé le premier doigt, que ces sensations tactiles, dis-je, persistent et ne sont pas altérées par ces mouvements. Cela, c’est l’expérience qui nous l’apprend et elle seule qui pouvait nous l’apprendre. Si nous avions distingué les séries de sensations musculaires S + S′ formées par la réunion de deux séries inverses ; c’est parce qu’elles conservaient l’ensemble de nos impressions, si maintenant nous distinguons les séries σ, c’est parce qu’elles conservent certaines de nos impressions. (Quand je dis qu’une série de sensations musculaires S « conserve » une de nos impressions A, je veux dire que nous constatons que si nous éprouvons l’impression A, puis les sensations musculaires S, nous éprouverons encore l’impression A après ces sensations S.) J’ai dit plus haut qu’il arrive souvent que les séries σ n’altèrent pas les impressions tactiles éprouvées par notre premier doigt ; j’ai dit souvent, je n’ai pas dit toujours ; c’est ce que nous exprimons dans notre langage habituel en disant que l’impression tactile ne serait pas altérée si le doigt n’a pas bougé, à la condition que l’objet A qui était au contact de ce doigt n’ait pas bougé non plus. Avant de savoir la géométrie, nous ne pouvons pas donner cette explication ; tout ce que nous pouvons faire, c’est de constater que l’impression persiste souvent, mais pas toujours. Mais il suffit qu’elle persiste souvent pour que les séries σ nous apparaissent comme remarquables, pour que nous soyons amenés à ranger dans une même classe les séries Σ et Σ + σ, et de là à ne pas les regarder comme distinctes. Dans ces conditions nous avons vu qu’elles engendreront un continu physique à trois dimensions. Voilà donc un espace à trois dimensions engendré par mon premier doigt. Chacun de mes doigts en engendrera un semblable. Comment sommes-nous conduits à les considérer comme identiques à l’espace visuel, comme identiques à l’espace géométrique, c’est ce qui reste à examiner. Mais avant d’aller plus loin, faisons une réflexion ; d’après ce qui précède, nous ne connaissons les points de l’espace ou plus généralement la situation finale de notre corps, que par les séries de sensations musculaires nous révélant les mouvements qui nous ont fait passer d’une certaine situation initiale à cette situation finale. Mais il est clair que cette situation finale dépendra d’une part de ces mouvements et d’autre part de la situation initiale d’où nous sommes partis. Or ces mouvements nous sont révélés par nos sensations musculaires ; mais rien ne nous fait connaître la situation initiale ; rien ne peut nous la faire distinguer de toutes les autres situations possibles. Voilà qui met bien en évidence la relativité essentielle de l’espace. § 4. — IDENTITÉ DES DIVERS ESPACES Nous sommes donc amenés à comparer les deux continus C et C′ engendrés par exemple, l’un par mon premier doigt D, l’autre par mon second doigt D′. Ces deux continus physiques ont l’un et l’autre trois dimensions. À chaque élément du continu C, ou si l’on aime mieux s’exprimer ainsi, à chaque point du premier espace tactile, correspond une série de sensations musculaires Σ qui me font passer d’une certaine situation initiale à une certaine situation finale  1 . De plus un même point de ce premier espace correspondra à Σ et à Σ + σ, si σ est une série dont nous savons qu’elle ne fait pas bouger le doigt D. De même à chaque élément du continu C′, ou à chaque point du second espace tactile correspond une série de sensations Σ′, et un même point correspondra à Σ′ et Σ′ + σ′ si σ′ est une série qui ne fait pas bouger le doigt D′. Ce qui nous fait donc distinguer les séries σ et σ′ c’est que les premières n’altèrent pas les impressions tactiles éprouvées par le doigt D et que les secondes conservent celles qu’éprouve le doigt D′. Or voici ce que nous constatons : au début mon doigt D′ éprouve une sensation A′ ; je fais des mouvements qui engendrent les sensations musculaires S ; mon doigt D éprouve l’impression A ; je fais des mouvements qui engendrent une série de sensations σ ; mon doigt D continue à éprouver l’impression A, puisque c’est la propriété caractéristique des séries σ ; je fais ensuite des mouvements qui engendrent la série S′ de sensations musculaires, inverse de S au sens donné plus haut à ce mot. Je constate alors que mon doigt D éprouve de nouveau l’impression A′. (Il faut bien entendu pour cela que S ait été convenablement choisie.) Ce qui veut dire que la série S + σ + S′, conservant les impressions tactiles du doigt D′ est l’une des séries que j’ai appelées σ′. Inversement si l’on prend une série σ′ quelconque, S′ + σ′ + S sera une des séries que nous appelons σ. Ainsi si S est convenablement choisie. S + σ + S′ sera une série σ′, et en faisant varier σ de toutes les manières possibles, on obtiendra toutes les séries σ′ possibles. Tout cela, ne sachant pas encore la géométrie, nous nous bornons à le constater, mais voici comment ceux qui savent la géométrie expliqueraient le fait. Au début mon doigt D′ est au point M, au contact de l’objet a qui lui fait éprouver l’impression A′ ; je fais les mouvements correspondants à la série S ; j’ai dit que cette série devait être convenablement choisie, je dois faire ce choix de telle façon que ces mouvements amènent le doigt D au point primitivement occupé par le doigt D′, c’est-à-dire au point M ; ce doigt D sera ainsi au contact de l’objet a, qui lui fera éprouver l’impression A. Je fais ensuite les mouvements correspondants à la série σ ; dans ces mouvements, par hypothèse, la position du doigt D ne change pas, ce doigt reste donc au contact de l’objet a et continue à éprouver l’impression A. Je fais enfin les mouvements correspondants à la série S′. Comme S′ est inverse de S, ces mouvements amèneront le doigt D′ au point occupé d’abord par le doigt D, c’est-à-dire au point M. Si, comme il est permis de le supposer, l’objet a n’a pas bougé, ce doigt D′ se trouvera au contact de cet objet et éprouvera de nouveau l’impression A′ ; ... C. Q. F. D. Voyons les conséquences. Je considère une série de sensations musculaires S ; à cette série correspondra un point M du premier espace tactile. Reprenons maintenant les deux séries S et S′, inverses l’une de l’autre, dont nous venons de parler. À la série S + Σ + S′ correspondra un point N du second espace tactile, puisque à une série quelconque de sensations musculaires correspond, comme nous l’avons dit, un point soit dans le premier espace, soit dans le second. Je vais considérer les deux points N et M ainsi définis comme se correspondant. Qu’est-ce qui m’y autorise ? Pour que cette correspondance soit admissible, il faut que s’il y a identité entre deux points M et M′ correspondant dans le premier espace à deux séries Σ et Σ′, il y ait aussi identité entre les deux points correspondants du second espace N et N′, c’est-à-dire entre les deux points qui correspondent aux deux séries S + Σ + S′, et S′ + Σ'+ S′. Or nous allons voir que cette condition est remplie. Faisons d’abord une remarque. Comme S et S′ sont inverses l’une de l’autre, on aura S + S′ = O, et par conséquent S + S′ + Σ = Σ + S + S′ = Σ, ou encore Σ + S + S′ + Σ′ = Σ + Σ′ ; mais il ne s’ensuit pas que l’on ait S + Σ + Σ′ = Σ ; car bien que nous ayons employé le signe de l’addition pour représenter la succession de nos sensations, il est clair que l’ordre de cette succession n’est pas indifférent : nous ne pouvons donc, comme dans l’addition ordinaire, intervertir l’ordre des termes ; pour employer un langage abrégé, nos opérations sont associatives, mais non commutatives. Cela posé, pour que Σ et Σ′ correspondent à un même point M = M′ du premier espace, il faut et il suffit que l’on ait Σ′ = Σ + σ. On aura alors : S + Σ′ + S′ = S + Σ + σ + S' = S + Σ + S′ + S + σ + S′. Mais nous venons de constater que S + σ + S′ était une des séries σ′. On aura donc :       S + Σ′ + S′ = S + Σ + S′ + σ' ce qui veut dire que les séries S + Σ′ + S′ et S + Σ + σ′ correspondent à un même point N = N′ du second espace.                               C. Q. F. D. Nos deux espaces se correspondent donc point à point ; ils peuvent être « transformés » l’un dans l’autre ; ils sont isomorphes ; comment sommes- nous conduits à en conclure qu’ils sont identiques ? Considérons les deux séries σ et S + σ + S′ = σ′. J’ai dit que souvent, mais non toujours, la série σ conserve l’impression tactile A éprouvée par le doigt D ; et de même il arrive souvent, mais non toujours, que la série σ′ conserve l’impression tactile A′ éprouvée par le doigt D′. Or je constate qu’il arrive très souvent (c’est-à-dire beaucoup plus souvent que ce que je viens d’appeler « souvent ») que quand la série σ a conservé l’impression A du doigt D, la série σ′ conserve en même temps l’impression A′ du doigt D′ ; et inversement que si la première impression est altérée, la seconde l’est également. Cela arrive très souvent, mais pas toujours. Nous interprétons ce fait expérimental en disant que l’objet inconnu a qui cause l’impression A au doigt D est identique à l’objet inconnu a′ qui cause l’impression A′ au doigt D′. Et en effet quand le premier objet bouge, ce dont nous avertit la disparition de l’impression A, le second bouge également, puisque l’impression A′ disparaît également. Quand le premier objet reste immobile, le second reste immobile. Si ces ceux objets sont identiques, comme le premier est au point M du premier espace et le second au point N du second espace, c’est que ces deux points sont identiques. Voilà comment nous sommes conduits à regarder ces deux espaces comme identiques ; ou mieux voilà ce que nous voulons dire quand nous disons qu’ils sont identiques. Ce que nous venons de dire de l’identité des deux espaces tactiles nous dispense de discuter la question de l’identité de l’espace tactile et de l’espace visuel qui se traiterait de la même manière. § 5. — L’ESPACE ET L’EMPIRISME. Il semble que je vais être amené à des conclusions conformes aux idées empiristes. J’ai cherché en effet à mettre en évidence le rôle de l’expérience et à analyser les faits expérimentaux qui interviennent dans la genèse de l’espace à trois dimensions. Mais quelle que puisse être l’importance de ces faits, il y a une chose que nous ne devons pas oublier et sur laquelle j’ai d’ailleurs appelé plus d’une fois l’attention. Ces faits expérimentaux se vérifient souvent, mais pas toujours. Cela ne veut évidemment pas dire que l’espace a souvent trois dimensions, mais pas toujours. Je sais bien qu’il est aisé de s’en tirer et que, si les faits ne se vérifient pas, on l’expliquera aisément en disant que les objets extérieurs ont bougé. Si l’expérience réussit, on dit qu’elle nous renseigne sur l’espace ; si elle ne réussit pas, on s’en prend aux objets extérieurs qu’on accuse d’avoir bougé ; en d’autres termes, si elle ne réussit pas on lui donne un coup de pouce. Ces coups de pouce sont légitimes ; je n’en disconviens pas ; mais ils suffisent pour nous avertir que les propriétés de l’espace ne sont pas des vérités expérimentales proprement dites. Si nous avions voulu vérifier d’autres lois, nous aurions pu aussi y parvenir, en donnant d’autres coups de pouce analogues ? N’aurions-nous pas toujours pu justifier ces coups de pouce par les mêmes raisons ? Tout au plus aurait-on pu nous dire : « vos coups de pouce sont légitimes sans doute, mais vous en abusez ; à quoi bon faire bouger si souvent les objets extérieurs ? » En résumé, l’expérience ne nous prouve pas que l’espace a trois dimensions ; elle nous prouve qu’il est commode de lui en attribuer trois, parce que c’est ainsi que le nombre des coups de pouce est réduit au minimum. Ajouterai-je que l’expérience ne nous ferait jamais toucher que l’espace représentatif qui est un continu physique, et non l’espace géométrique qui est un continu mathématique. Tout au plus pourrait-il nous apprendre qu’il est commode de donner à l’espace géométrique trois dimensions pour qu’il en ait autant que l’espace représentatif. La question empirique peut se poser sous une autre forme. Est-il impossible de concevoir les phénomènes physiques, les phénomènes mécaniques, par exemple, autrement que dans l’espace à trois dimensions ? Nous aurions ainsi une preuve expérimentale objective, pour ainsi dire, indépendante de notre physiologie, de nos modes de représentation. Mais il n’en est pas ainsi ; je ne discuterai pas ici complètement la question, je me bornerai à rappeler l’exemple frappant que nous donne la mécanique de Hertz. On sait que le grand physicien ne croyait pas à l’existence des forces proprement dites ; il supposait que les points matériels visibles sont assujettis à certaines liaisons invisibles qui les relient à d’autres points invisibles et que c’est l’effet de ces liaisons invisibles que nous attribuons aux forces. Mais ce n’est là qu’une partie de ses idées. Supposons un système formé de n points matériels visibles ou non ; cela fera en tout 3 n coordonnées ; regardons-les comme les coordonnées d’un point unique dans l’espace à 3 n dimensions. Ce point unique serait assujetti à rester sur une surface (d’un nombre quelconque de dimensions < 3 n) en vertu des liaisons dont nous venons de parler ; pour se rendre sur cette surface, d’un point à un autre, il prendrait toujours le chemin le plus court ; ce serait là le principe unique qui résumerait toute la mécanique. Quoi que l’on doive penser de cette hypothèse, qu’on soit séduit par sa simplicité, ou rebuté par son caractère artificiel, le seul fait que Hertz ait pu la concevoir, et la regarder comme plus commode que nos hypothèses habituelles, suffit pour prouver que nos idées ordinaires, et, en particulier, les trois dimensions de l’espace, ne s’imposent nullement au mécanicien avec une force invincible. § 6. — L’ESPRIT ET L’ESPACE L’expérience n’a donc joué qu’un seul rôle, elle a servi d’occasion. Mais ce rôle n’en était pas moins très important ; et j’ai cru nécessaire de le faire ressortir. Ce rôle aurait été inutile s’il existait une forme a priori s’imposant à notre sensibilité et qui serait l’espace à trois dimensions. Cette forme existe-t-elle, ou, si l’on veut, pouvons-nous nous représenter l’espace à plus de trois dimensions ? Et d’abord que signifie cette question ? Au vrai sens du mot, il est clair que nous ne pouvons nous représenter l’espace à quatre, ni l’espace à trois dimensions ; nous ne pouvons d’abord nous les représenter vides, et nous ne pouvons non plus nous représenter un objet ni dans l’espace à quatre, ni dans l’espace à trois dimensions : 1° parce que ces espaces sont l’un et l’autre infinis et que nous ne pourrions nous représenter une figure dans l’espace, c’est-à-dire la partie dans le tout, sans nous représenter le tout, et cela est impossible, puisque ce tout est infini ; 2° parce que ces espaces sont l’un et l’autre des continus mathématiques et que nous ne pouvons nous représenter que le continu physique ; 3° parce que ces espaces sont l’un et l’autre homogènes, et que les cadres où nous enfermons nos sensations, étant limités, ne peuvent être homogènes. Ainsi la question posée ne peut s’entendre que d’une manière ; est-il possible d’imaginer que, les résultats des expériences relatées plus haut ayant été différents, nous ayons été conduits à attribuer à l’espace plus de trois dimensions ; d’imaginer, par exemple, que la sensation d’accommodation ne soit pas constamment d’accord avec la sensation de convergence des yeux ; ou bien que les expériences dont nous avons parlé au paragraphe 2 et dont nous exprimons le résultat en disant « que le toucher ne s’exerce pas à distance », nous aient conduits à une conclusion inverse. Et alors évidemment oui cela est possible ; du moment qu’on imagine une expérience, on imagine par cela même les deux résultats contraires qu’elle peut donner. Cela est possible, mais cela est difficile, parce que nous avons à vaincre une foule d’associations d’idées, qui sont le fruit d’une longue expérience personnelle et de l’expérience plus longue encore de la race. Sont-ce ces associations (ou du moins celles d’entre elles que nous avons héritées de nos ancêtres), qui constituent cette forme a priori dont on nous dit que nous avons l’intuition pure ? Alors je ne vois pas pourquoi on la déclarerait rebelle à l’analyse et on me dénierait le droit d’en rechercher l’origine. Quand on dit que nos sensations sont « étendues » on ne peut vouloir dire qu’une chose, c’est qu’elles se trouvent toujours associées à l’idée de certaines sensations musculaires, correspondant aux mouvements qui permettraient d’atteindre l’objet qui les cause, qui permettraient, en d’autres termes, de se défendre contre elles. Et c’est justement parce que cette association est utile à la défense de l’organisme, qu’elle est si ancienne dans l’histoire de l’espèce et qu’elle nous semble indestructible. Néanmoins, ce n’est qu’une association et on peut concevoir qu’elle soit rompue ; de sorte qu’on ne peut pas dire que la sensation ne peut entrer dans la conscience sans entrer dans l’espace, mais qu’en fait elle n’entre pas dans la conscience sans entrer dans l’espace, ce qui veut dire, sans être engagée dans cette association. Je ne puis comprendre non plus qu’on dise que l’idée de temps est postérieure logiquement à l’espace, parce que nous ne pouvons nous le représenter que sous la forme d’une droite ; autant dire que le temps est postérieur logiquement à la culture des prairies, parce qu’on se le représente généralement armé d’une faux. Qu’on ne puisse pas se représenter simultanément les diverses parties du temps, cela va de soi, puisque le caractère essentiel de ces parties est précisément de n’être pas simultanées. Cela ne veut pas dire que l’on n’ait pas l’intuition du temps. À ce compte, on n’aurait pas non plus celle de l’espace, car, lui aussi, on ne peut pas se le représenter, au sens propre du mot, pour les raisons que j’ai dites. Ce que nous nous représentons sous le nom de droite est une image grossière qui ressemble aussi mal à la droite géométrique qu’au temps lui-même. Pourquoi a-t-on dit que toute tentative pour donner une quatrième dimension à l’espace ramène toujours celle-ci à l’une des trois autres ? Il est aisé de le comprendre. Envisageons nos sensations musculaires et les « séries » qu’elles peuvent former. À la suite d’expériences nombreuses, les idées de ces séries sont associées entre elles dans une trame très complexe, nos séries sont classées. Qu’on me permette, pour la commodité du langage, d’exprimer ma pensée d’une façon tout à fait grossière et même inexacte en disant que nos séries de sensations musculaires sont classées en trois classes correspondant aux trois dimensions de l’espace. Bien entendu, cette classification est beaucoup plus compliquée que cela, mais cela suffira pour faire comprendre mon raisonnement. Si je veux imaginer une quatrième dimension, je supposerai une autre série de sensations musculaires, faisant partie d’une quatrième classe. Mais comme toutes mes sensations musculaires ont déjà été rangées dans une des trois classes préexistantes, je ne puis me représenter qu’une série appartenant à l’une de ces trois classes, de sorte que ma quatrième dimension est ramenée à l’une des trois autres. Qu’est-ce que cela prouve ? C’est qu’il aurait fallu d’abord détruire l’ancienne classification et la remplacer par une nouvelle où les séries de sensations musculaires auraient été réparties en quatre classes. La difficulté aurait disparu. On la présente, quelquefois, sous une forme plus frappante. Supposons que je sois enfermé dans une chambre entre les six parois infranchissables formées par les quatre murs, le plafond et le plancher ; il me sera impossible d’en sortir et d’imaginer que j’en sorte. — Pardon, ne pouvez-vous vous imaginer que la porte s’ouvre, ou que deux de ces parois s’écartent ? — Mais bien entendu, répondra-t-on, il faut qu’on suppose que ces parois restent immobiles. — Oui, mais il est évident que moi, j’ai le droit de bouger ; et alors les parois que nous supposons en repos absolu seront en mouvement relatif par rapport à moi. — Oui, mais un pareil mouvement relatif ne peut pas être quelconque, quand des objets sont en repos, leur mouvement relatif par rapport à des axes quelconques est celui d’un corps solide invariable ; or, les mouvements apparents que vous imaginez ne sont pas conformes aux lois du mouvement d’un solide invariable. — Oui, mais c’est l’expérience qui nous a appris les lois du mouvement d’un solide invariable ; rien n’empêcherait d’imaginer qu’elles fussent différentes. En résumé, pour m’imaginer que je sors de ma prison, je n’ai qu’à m’imaginer que les parois semblent s’en écarter, quand je remue. Je crois donc que si par espace on entend un continu mathématique à trois dimensions, fût-il d’ailleurs amorphe, c’est l’esprit qui le construit, mais il ne le construit pas avec rien, il lui faut des matériaux et des modèles. Ces matériaux comme ces modèles préexistent en lui. Mais il n’y a pas un modèle unique qui s’impose à lui ; il a du choix ; il peut choisir, par exemple, entre l’espace à quatre et l’espace à trois dimensions. Quel est alors le rôle de l’expérience ? C’est elle qui lui donne les indications d’après lesquelles il fait son choix. Autre chose : d’où vient à l’espace son caractère quantitatif ? Il vient du rôle que jouent dans sa genèse les séries de sensations musculaires. Ce sont des séries qui peuvent se répéter, et c’est de leur répétition que vient le nombre ; c’est parce qu’elles peuvent se répéter indéfiniment que l’espace est infini. Et enfin nous avons vu à la fin du paragraphe 3 que c’est aussi pour cela que l’espace est relatif. Ainsi c’est la répétition qui a donné à l’espace ses caractères essentiels ; or, la répétition suppose le temps ; c’est assez dire que le temps est antérieur logiquement à l’espace. § 7. — RÔLE DES CANAUX SEMI-CIRCULAIRES Je n’ai pas parlé jusqu’ici du rôle de certains organes auxquels les physiologistes attribuent avec raison une importance capitale, je veux parler des canaux semi-circulaires. De nombreuses expériences ont suffisamment montré que ces canaux sont nécessaires à notre sens d’orientation ; mais les physiologistes ne sont pas entièrement d’accord ; deux théories opposées ont été proposées, celle de Mach-Delage et celle de M. de Cyon. M. de Cyon est un physiologiste qui a illustré son nom par d’importantes découvertes sur l’innervation du cœur ; je ne saurais toutefois partager ses idées sur la question qui nous occupe. N’étant pas physiologiste, j’hésite à critiquer les expériences qu’il a dirigées contre la théorie adverse de Mach-Delage ; il me semble cependant qu’elles ne sont pas probantes, car dans beaucoup d’entre elles on faisait varier la pression dans un des canaux tout entier, tandis que, physiologiquement, ce qui varie, c’est la différence entre les pressions sur les deux extrémités du canal ; dans d’autres, les organes étaient profondément lésés, ce qui devait en altérer les fonctions. Peu importe d’ailleurs ; les expériences, si elles étaient irréprochables, pourraient être probantes contre la théorie ancienne. Elles ne pourraient l’être pour la théorie nouvelle. Si, en effet, j’ai bien compris la théorie, il me suffira de l’exposer pour qu’on comprenne qu’il est impossible de concevoir une expérience qui la confirme. Les trois paires de canaux auraient pour unique fonction de nous avertir que l’espace a trois dimensions. Les souris japonaises n’ont que deux paires de canaux ; elles croient, paraît-il, que l’espace n’a que deux dimensions, et elles manifestent cette opinion de la façon la plus étrange ; elles se rangent en cercle, chacune d’elles mettant le nez sous la queue de la précédente, et, ainsi rangées, elles se mettent à tourner rapidement. Les lamproies, n’ayant qu’une paire de canaux, croient que l’espace n’a qu’une dimension, mais leurs manifestations sont moins tumultueuses. Il est évident qu’une semblable théorie n’est pas admissible. Les organes des sens sont destinés à nous avertir des changements qui se produisent dans le monde extérieur. On ne comprendrait pas pourquoi le créateur nous aurait donné des organes destinés à nous crier sans cesse : Souviens-toi que l’espace a trois dimensions, puisque le nombre de ces trois dimensions n’est pas sujet au changement. Nous devons donc en revenir à la théorie de Mach-Delage. Ce que peuvent nous faire connaître les nerfs des canaux, c’est la différence de pression sur les deux extrémités d’un même canal, et par là : 1° La direction de la verticale par rapport à trois axes invariablement liés à la tête ; 2° Les trois composantes de l’accélération de translation du centre de gravité de la tête ; 3° Les forces centrifuges développées par la rotation de la tête ; 4° L’accélération du mouvement de rotation de la tête. Il résulte des expériences de M. Delage que c’est cette dernière indication qui est de beaucoup la plus importante ; sans doute parce que les nerfs sont moins sensibles à la différence de pression elle-même qu’aux variations brusques de cette différence. Les trois premières indications peuvent ainsi être négligées. Connaissant l’accélération du mouvement de rotation de la tête à chaque instant, nous en déduisons, par une intégration inconsciente, l’orientation finale de la tête, rapportée à une certaine orientation initiale prise pour origine. Les canaux circulaires contribuent donc à nous renseigner sur les mouvements que nous avons exécutés, et cela au même titre que les sensations musculaires. Quand donc, plus haut, nous parlions de la série S ou de la série Σ, nous aurions dû dire, non que c’étaient des séries de sensations musculaires seulement, mais que c’étaient des séries à la fois de sensations musculaires et de sensations dues aux canaux semi-circulaires. À part cette addition, nous n’aurions rien à changer à ce qui précède. Dans ces séries S et Σ, ces sensations de canaux semi-circulaires tiennent évidemment une place tout à fait importante. À elles seules elles ne suffiraient pas cependant ; car elles ne peuvent nous renseigner que sur les mouvements de la tête, elles ne nous apprennent rien sur les mouvements relatifs du tronc ou des membres par rapport à la tête. De plus, il semble qu’elles nous renseignent seulement sur les rotations de la tête et non sur les translations qu’elle peut subir.     DEUXIÈME PARTIE LES SCIENCES PHYSIQUES     CHAPITRE V L’Analyse et la Physique. I On vous a sans doute souvent demandé à quoi servent les mathématiques et si ces délicates constructions que nous tirons tout entières de notre esprit ne sont pas artificielles et enfantées par notre caprice. Parmi les personnes qui font cette question, je dois faire une distinction ; les gens pratiques réclament seulement de nous le moyen de gagner de l’argent. Ceux-là ne méritent pas qu’on leur réponde ; c’est à eux plutôt qu’il conviendrait de demander à quoi bon accumuler tant de richesses et si, pour avoir le temps de les acquérir, il faut négliger l’art et la science qui seuls nous font des âmes capables d’en jouir,       et propter vitam vivendi perdere causas. D’ailleurs, une science uniquement faite en vue des applications est impossible ; les vérités ne sont fécondes que si elles sont enchaînées les unes aux autres. Si l’on s’attache seulement à celles dont on attend un résultat immédiat, les anneaux intermédiaires manqueront, et il n’y aura plus de chaîne. Les hommes les plus dédaigneux de la théorie y trouvent sans s’en douter un aliment quotidien ; si l’on était privé de cet aliment, le progrès s’arrêterait rapidement et nous nous figerions bientôt dans l’immobilité de la Chine. Mais c’est assez nous occuper des praticiens intransigeants. À côté d’eux, il y a ceux qui sont seulement curieux de la nature et qui nous demandent si nous sommes en état de la leur mieux faire connaître. Pour leur répondre, nous n’avons qu’à leur montrer les deux monuments déjà ébauchés de la Mécanique Céleste et de la Physique Mathématique. Ils nous concéderaient sans doute que ces monuments valent bien la peine qu’ils nous ont coûtée. Mais ce n’est pas assez. Les mathématiques ont un triple but. Elles doivent fournir un instrument pour l’étude de la nature. Mais ce n’est pas tout : elles ont un but philosophique et, j’ose le dire, un but esthétique. Elles doivent aider le philosophe à approfondir les notions de nombre, d’espace, de temps. Et surtout leurs adeptes y trouvent des jouissances analogues à celles que donnent la peinture et la musique. Ils admirent la délicate harmonie des nombres et des formes ; ils s’émerveillent quand une découverte nouvelle leur ouvre une perspective inattendue ; et la joie qu’ils éprouvent ainsi n’a- t-elle pas le caractère esthétique, bien que les sens n’y prennent aucune part ? Peu de privilégiés sont appelés à la goûter pleinement, cela est vrai, mais n’est-ce pas ce qui arrive pour les arts les plus nobles ? C’est pourquoi je n’hésite pas à dire que les mathématiques méritent d’être cultivées pour elles-mêmes et que les théories qui ne peuvent être appliquées à la physique doivent l’être comme les autres. Quand même le but physique et le but esthétique ne seraient pas solidaires, nous ne devrions sacrifier ni l’un ni l’autre. Mais il y a plus : ces deux buts sont inséparables et le meilleur moyen d’atteindre l’un c’est de viser l’autre, ou du moins de ne jamais le perdre de vue. C’est ce que je vais m’efforcer de démontrer en précisant la nature des rapports entre la science pure et ses applications. Le mathématicien ne doit pas être pour le physicien un simple fournisseur de formules ; il faut qu’il y ait entre eux une collaboration plus intime. La physique mathématique et l’analyse pure ne sont pas seulement des puissances limitrophes, entretenant des rapports de bon voisinage ; elles se pénètrent mutuellement et leur esprit est le même. C’est ce que l’on comprendra mieux quand j’aurai montré ce que la physique reçoit de la mathématique et ce que la mathématique, en retour, emprunte à la physique. II Le physicien ne peut demander à l’analyste de lui révéler une vérité nouvelle ; tout au plus celui-ci pourrait-il l’aider à la pressentir. Il y a longtemps que personne ne songe plus à devancer l’expérience, ou à construire le monde de toutes pièces sur quelques hypothèses hâtives. De toutes ces constructions où l’on se complaisait encore naïvement il y a un siècle, il ne reste plus aujourd’hui que des ruines. Toutes les lois sont donc tirées de l’expérience ; mais pour les énoncer, il faut une langue spéciale ; le langage ordinaire est trop pauvre, il est d’ailleurs trop vague, pour exprimer des rapports si délicats, si riches et si précis. Voilà donc une première raison pour laquelle le physicien ne peut se passer des mathématiques ; elles lui fournissent la seule langue qu’il puisse parler. Et ce n’est pas une chose indifférente qu’une langue bien faite ; pour ne pas sortir de la physique, l’homme inconnu qui a inventé le mot chaleur a voué bien des générations à l’erreur. On a traité la chaleur comme une substance, simplement parce qu’elle était désignée par un substantif, et on l’a crue indestructible. En revanche, celui qui a inventé le mot électricité a eu le bonheur immérité de doter implicitement la physique d’une loi nouvelle, celle de la conservation de l’électricité, qui, par un pur hasard, s’est trouvée exacte, du moins jusqu’à présent. Eh bien, pour poursuivre la comparaison, les écrivains qui embellissent une langue, qui la traitent comme un objet d’art, en font en même temps un instrument plus souple, plus apte à rendre les nuances de la pensée. On comprend alors comment l’analyste, qui poursuit un but purement esthétique, contribue par cela même à créer une langue plus propre à satisfaire le physicien. Mais ce n’est pas tout ; la loi sort de l’expérience, mais elle n’en sort pas immédiatement. L’expérience est individuelle, la loi qu’on en tire est générale, l’expérience n’est qu’approchée, la loi est précise ou du moins prétend l’être. L’expérience se fait dans des conditions toujours complexes, l’énoncé de la loi élimine ces complications. C’est ce qu’on appelle « corriger les erreurs systématiques ». En un mot, pour tirer la loi de l’expérience, il faut généraliser ; c’est une nécessité qui s’impose à l’observateur le plus circonspect. Mais comment généraliser ? Toute vérité particulière peut évidemment être étendue d’une infinité de manières. Entre ces mille chemins qui s’ouvrent devant nous, il faut faire un choix, au moins provisoire ; dans ce choix, qui nous guidera ? Ce ne pourra être que l’analogie. Mais que ce mot est vague ! L’homme primitif ne connaît que les analogies grossières, celles qui frappent les sens, celles des couleurs ou des sons. Ce n’est pas lui qui aurait songé à rapprocher par exemple la lumière de la chaleur rayonnante. Qui nous a appris à connaître les analogies véritables, profondes, celles que les yeux ne voient pas et que la raison devine ? C’est l’esprit mathématique, qui dédaigne la matière pour ne s’attacher qu’à la forme pure. C’est lui qui nous a enseigné à nommer du même nom des êtres qui ne diffèrent que par la matière, à nommer du même nom par exemple la multiplication des quaternions et celle des nombres entiers. Si les quaternions, dont je viens de parler, n’avaient été si promptement utilisés par les physiciens anglais, bien des personnes n’y verraient sans doute qu’une rêverie oiseuse, et pourtant, en nous apprenant à rapprocher ce que les apparences séparent, ils nous auraient déjà rendus plus aptes à pénétrer les secrets de la nature. Voilà les services que le physicien doit attendre de l’analyse, mais pour que cette science puisse les lui rendre, il faut qu’elle soit cultivée de la façon la plus large, sans préoccupation immédiate d’utilité, il faut que le mathématicien ait travaillé en artiste. Ce que nous lui demandons c’est de nous aider à voir, à discerner notre chemin dans le dédale qui s’offre à nous. Or, celui qui voit le mieux, c’est celui qui s’est élevé le plus haut. Les exemples abondent, et je me bornerai aux plus frappants. Le premier nous montrera comment il suffit de changer de langage pour apercevoir des généralisations qu’on n’avait pas d’abord soupçonnées. Quand la loi de Newton s’est substituée à celle de Képler, on ne connaissait encore que le mouvement elliptique. Or, en ce qui concerne ce mouvement, les deux lois ne diffèrent que par la forme ; on passe de l’une à l’autre par une simple différenciation. Et cependant, de la loi de Newton, on peut déduire, par une généralisation immédiate, tous les effets des perturbations et toute la mécanique céleste. Jamais au contraire, si l’on avait conservé l’énoncé de Képler, on n’aurait regardé les orbites des planètes troublées, ces courbes compliquées dont personne n’a jamais écrit l’équation, comme les généralisations naturelles de l’ellipse. Les progrès des observations n’auraient servi qu’à faire croire au chaos. Le second exemple mérite également d’être médité. Quand Maxwell a commencé ses travaux, les lois de l’électrodynamique admises jusqu’à lui rendaient compte de tous les faits connus. Ce n’est pas une expérience nouvelle qui est venue les infirmer. Mais en les envisageant sous un biais nouveau, Maxwell a reconnu que les équations deviennent plus symétriques quand on y ajoute un terme, et d’autre part ce terme était trop petit pour produire des effets appréciables avec les méthodes anciennes. On sait que les vues a priori de Maxwell ont attendu vingt ans une confirmation expérimentale ; ou si vous aimez mieux, Maxwell a devancé de vingt ans l’expérience. Comment ce triomphe a-t-il été obtenu ? C’est que Maxwell était profondément imprégné du sentiment de la symétrie mathématique ; en aurait-il été de même, si d’autres n’avaient avant lui recherché cette symétrie pour sa beauté propre ? C’est que Maxwell était habitué à « penser en vecteurs » et pourtant si les vecteurs se sont introduits dans l’analyse, c’est par la théorie des imaginaires. Et ceux qui ont inventé les imaginaires ne se doutaient guère du parti qu’on en tirerait pour l’étude du monde réel ; le nom qu’ils leur ont donné le prouve suffisamment. Maxwell en un mot n’était peut-être pas un habile analyste, mais cette habileté n’aurait été pour lui qu’un bagage inutile et gênant. Au contraire il avait au plus haut degré le sens intime des analogies mathématiques. C’est pour cela qu’il a fait de bonne physique mathématique. L’exemple de Maxwell nous apprend encore autre chose. Comment faut-il traiter les équations de la physique mathématique ? devons-nous simplement en déduire toutes les conséquences, et les regarder comme des réalités intangibles ? Loin de là ; ce qu’elles doivent nous apprendre surtout, c’est ce qu’on peut et ce qu’on doit y changer. C’est comme cela que nous en tirerons quelque chose d’utile. Le troisième exemple va nous montrer comment nous pouvons apercevoir des analogies mathématiques entre des phénomènes qui n’ont physiquement aucun rapport ni apparent, ni réel, de telle sorte que les lois de l’un de ces phénomènes nous aident à deviner celles de l’autre. Une même équation, celle de Laplace, se rencontre dans la théorie de l’attraction newtonienne, dans celle du mouvement des liquides, dans celle du potentiel électrique, dans celle du magnétisme, dans celle de la propagation de la chaleur et dans bien d’autres encore. Qu’en résulte-t-il ? Ces théories semblent des images calquées l’une sur l’autre ; elles s’éclairent mutuellement, en s’empruntant leur langage ; demandez aux électriciens s’ils ne se félicitent pas d’avoir inventé le mot de flux de force, suggéré par l’hydrodynamique et la théorie de la chaleur. Ainsi les analogies mathématiques, non seulement peuvent nous faire pressentir les analogies physiques, mais encore ne cessent pas d’être utiles, quand ces dernières font défaut. En résumé le but de la physique mathématique n’est pas seulement de faciliter au physicien le calcul numérique de certaines constantes ou l’intégration de certaines équations différentielles. Il est encore, il est surtout de lui faire connaître l’harmonie cachée des choses en les lui faisant voir d’un nouveau biais. De toutes les parties de l’analyse, ce sont les plus élevées, ce sont les plus pures, pour ainsi dire, qui seront les plus fécondes entre les mains de ceux qui savent s’en servir. III Voyons maintenant ce que l’analyse doit à la physique. Il faudrait avoir complètement oublié l’histoire de la science pour ne pas se rappeler que le désir de connaître la nature a eu sur le développement des mathématiques l’influence la plus constante et la plus heureuse. En premier lieu, le physicien nous pose des problèmes dont il attend de nous la solution. Mais en nous les proposant, il nous a payé largement d’avance le service que nous pourrons lui rendre, si nous parvenons à les résoudre. Si l’on veut me permettre de poursuivre ma comparaison avec les beaux-arts, le mathématicien pur qui oublierait l’existence du monde extérieur, serait semblable à un peintre qui saurait harmonieusement combiner les couleurs et les formes, mais à qui les modèles feraient défaut. Sa puissance créatrice serait bientôt tarie. Les combinaisons que peuvent former les nombres et les symboles sont une multitude infinie. Dans cette multitude, comment choisirons-nous celles qui sont dignes de retenir notre attention ? Nous laisserons-nous uniquement guider par notre caprice ? Ce caprice, qui lui-même d’ailleurs ne tarderait pas à se lasser, nous entraînerait sans doute bien loin les uns des autres et nous cesserions promptement de nous entendre entre nous. Mais ce n’est là que le petit côté de la question. La physique nous empêchera sans doute de nous égarer, mais elle nous préservera aussi d’un danger bien plus redoutable ; elle nous empêchera de tourner sans cesse dans le même cercle. L’histoire le prouve, la physique ne nous a pas seulement forcés de choisir entre les problèmes qui se présentaient en foule ; elle nous en a imposé auxquels nous n’aurions jamais songé sans elle. Quelque variée que soit l’imagination de l’homme, la nature est mille fois plus riche encore. Pour la suivre, nous devons prendre des chemins que nous avions négligés et ces chemins nous conduisent souvent à des sommets d’où nous découvrons des paysages nouveaux. Quoi de plus utile ! Il en est des symboles mathématiques comme des réalités physiques ; c’est en comparant les aspects différents des choses que nous pourrons en comprendre l’harmonie intime, qui seule est belle et par conséquent digne de nos efforts. Le premier exemple que je citerai est tellement ancien qu’on serait tenté de l’oublier ; il n’en est pas moins le plus important de tous. Le seul objet naturel de la pensée mathématique, c’est le nombre entier. C’est le monde extérieur qui nous a imposé le continu, que nous avons inventé sans doute, mais qu’il nous a forcés à inventer. Sans lui il n’y aurait pas d’analyse infinitésimale ; toute la science mathématique se réduirait à l’arithmétique ou à la théorie des substitutions. Au contraire, nous avons consacré à l’étude du continu presque tout notre temps et toutes nos forces. Qui le regrettera ; qui croira que ce temps et ces forces ont été perdus ? L’analyse nous déroule des perspectives infinies que l’arithmétique ne soupçonne pas ; elle vous montre d’un coup d’œil un ensemble grandiose, dont l’ordonnance est simple et symétrique ; au contraire, dans la théorie des nombres, où règne l’imprévu, la vue est pour ainsi dire arrêtée à chaque pas. Sans doute on vous dira qu’en dehors du nombre entier, il n’y a pas de rigueur, et par conséquent pas de vérité mathématique ; que partout il se cache, et qu’il faut s’efforcer de rendre transparents les voiles qui le dissimulent, dût-on pour cela se résigner à d’interminables redites. Ne soyons pas si puristes et soyons reconnaissants au continu qui, si tout sort du nombre entier, était seul capable d’en faire tant sortir. Ai-je besoin d’ailleurs de rappeler que M. Hermite a tiré un parti surprenant de l’introduction des variables continues dans la théorie des nombres ? Ainsi le domaine propre du nombre entier est envahi lui-même, et cette invasion a établi l’ordre, là où régnait le désordre. Voilà ce que nous devons au continu et par conséquent à la nature physique. La série de Fourier est un instrument précieux dont l’analyse fait un usage continuel, c’est par ce moyen qu’elle a pu représenter des fonctions discontinues ; si Fourier l’a inventée, c’est pour résoudre un problème de physique relatif à la propagation de la chaleur. Si ce problème ne s’était posé naturellement, on n’aurait jamais osé rendre au discontinu ses droits ; on aurait longtemps encore regardé les fonctions continues comme les seules fonctions véritables. La notion de fonction s’est par là considérablement étendue et a reçu de quelques analystes logiciens un développement imprévu. Ces analystes se sont ainsi aventurés dans des régions où règne l’abstraction la plus pure et se sont éloignés autant qu’il est possible du monde réel. C’est cependant un problème de physique qui leur en a fourni l’occasion. Derrière la série de Fourrier, d’autres séries analogues sont entrées dans le domaine de l’analyse ; elles y sont entrées par la même porte ; elles ont été imaginées en vue des applications. La théorie des équations aux dérivées partielles du second ordre a eu une histoire analogue ; elle s’est développée surtout par et pour la physique. Mais elle peut prendre bien des formes ; car une pareille équation ne suffit pas pour déterminer la fonction inconnue, il faut y adjoindre des conditions complémentaires qu’on appelle conditions aux limites ; d’où bien des problèmes différents. Si les analystes s’étaient abandonnés à leurs tendances naturelles, ils n’en auraient jamais connu qu’un, celui qu’a traité M me de Kowalevski dans son célèbre mémoire. Mais il y en a une foule d’autres qu’ils auraient ignorés. Chacune des théories physiques, celle de l’électricité, celle de la chaleur, nous présente ces équations sous un aspect nouveau. On peut donc dire que sans elles, nous ne connaîtrions pas les équations aux dérivées partielles. Il est inutile de multiplier les exemples. J’en ai dit assez pour pouvoir conclure : quand les physiciens nous demandent la solution d’un problème, ce n’est pas une corvée qu’ils nous imposent, c’est nous au contraire qui leur devons des remercîments. IV Mais ce n’est pas tout ; la physique ne nous donne pas seulement l’occasion de résoudre des problèmes ; elle nous aide à en trouver les moyens, et cela de deux manières. Elle nous fait pressentir la solution ; elle nous suggère des raisonnements. J’ai parlé plus haut de l’équation de Laplace que l’on rencontre dans une foule de théories physiques fort éloignées les unes des autres. On la retrouve en géométrie, dans la théorie de la représentation conforme et en analyse pure, dans celle des imaginaires. De cette façon, dans l’étude des fonctions de variables complexes, l’analyste, à côté de l’image géométrique, qui est son instrument habituel, trouve plusieurs images physiques dont il peut faire usage avec le même succès. Grâce à ces images, il peut voir d’un coup d’œil ce que la déduction pure ne lui montrerait que successivement. Il rassemble ainsi les éléments épars de la solution, et par une sorte d’intuition devine avant de pouvoir démontrer. Deviner avant de démontrer ? Ai-je besoin de rappeler que c’est ainsi que se sont faites toutes les découvertes importantes ? Combien de vérités que les analogies physiques nous permettent de pressentir et que nous ne sommes pas en état d’établir par un raisonnement rigoureux ! Par exemple, la physique mathématique introduit un grand nombre de développements en séries. Ces développements convergent, personne n’en doute ; mais la certitude mathématique fait défaut. Ce sont autant de conquêtes assurées pour les chercheurs qui viendront après nous. La physique, d’autre part, ne nous fournit pas seulement des solutions ; elle nous fournit encore, dans une certaine mesure, des raisonnements. Il me suffira de rappeler comment M. Klein, dans une question relative aux surfaces de Riemann, a eu recours aux propriétés des courants électriques. Il est vrai que les raisonnements de ce genre ne sont pas rigoureux, au sens que l’analyste attache à ce mot. Et, à ce propos, une question se pose : comment une démonstration, qui n’est pas assez rigoureuse pour l’analyste, peut-elle suffire au physicien ? Il semble qu’il ne peut y avoir deux rigueurs, que la rigueur est ou n’est pas, et que, là où elle n’est pas, il ne peut y avoir de raisonnement. On comprendra mieux ce paradoxe apparent, en se rappelant dans quelles conditions le nombre s’applique aux phénomènes naturels. D’où proviennent en général les difficultés que l’on rencontre quand on recherche la rigueur ? On s’y heurte presque toujours en voulant établir que telle quantité tend vers telle limite, ou que telle fonction est continue, ou qu’elle a une dérivée. Or les nombres que le physicien mesure par l’expérience ne lui sont jamais connus qu’approximativement ; et, d’autre part, une fonction quelconque diffère toujours aussi peu que l’on veut d’une fonction discontinue, et en même temps elle diffère aussi peu que l’on veut d’une fonction continue. Le physicien peut donc supposer à son gré, que la fonction étudiée est continue, ou qu’elle est discontinue ; qu’elle a une dérivée, ou qu’elle n’en a pas ; et cela sans crainte d’être jamais contredit, ni par l’expérience actuelle, ni par aucune expérience future. On conçoit, qu’avec cette liberté, il se joue des difficultés qui arrêtent l’analyste. Il peut toujours raisonner comme si toutes les fonctions qui s’introduisent dans ses calculs étaient des polynômes entiers. Ainsi l’aperçu qui suffit à la physique n’est pas le raisonnement qu’exige l’analyse. Il ne s’en suit pas que l’un ne puisse aider à trouver l’autre. On a déjà transformé en démonstrations rigoureuses tant d’aperçus physiques que cette transformation est aujourd’hui facile. Les exemples abonderaient si je ne craignais, en les citant, de fatiguer l’attention du lecteur. J’espère en avoir assez dit pour montrer que l’analyse pure et la physique mathématique peuvent se servir l’une l’autre sans se faire l’une à l’autre aucun sacrifice et que chacune de ces deux sciences doit se réjouir de tout ce qui élève son associée.     CHAPITRE VI L’Astronomie Les Gouvernements et les Parlements doivent trouver que l’Astronomie est une des sciences qui coûtent le plus cher : le moindre instrument coûte des centaines de mille francs, le moindre Observatoire coûte des millions ; chaque éclipse entraîne à sa suite des crédits supplémentaires. Et tout cela pour des astres qui sont si loin, qui sont complètement étrangers à nos luttes électorales et n’y prendront vraisemblablement jamais aucune part. Il faut que nos hommes politiques aient conservé un reste d’idéalisme, un vague instinct de ce qui est grand ; vraiment, je crois qu’ils ont été calomniés ; il convient de les encourager et de leur bien montrer que cet instinct ne les trompe pas, et qu’ils ne sont pas dupes de cet idéalisme. On pourrait bien leur parler de la marine, dont personne ne peut méconnaître l’importance, et qui a besoin de l’Astronomie. Mais ce serait prendre la question par son petit côté. L’Astronomie est utile, parce qu’elle nous élève au-dessus de nous- mêmes ; elle est utile, parce qu’elle est grande ; elle est utile, parce qu’elle est belle ; voilà ce qu’il faut dire. C’est elle qui nous montre combien l’homme est petit par le corps et combien il est grand par l’esprit, puisque cette immensité éclatante où son corps n’est qu’un point obscur, son intelligence peut l’embrasser tout entière et en goûter la silencieuse harmonie. Nous atteignons ainsi à la conscience de notre force, et c’est là ce que nous ne saurions acheter trop cher, parce que cette conscience nous rend plus forts. Mais ce que je voudrais vous montrer avant tout, c’est à quel point l’Astronomie a facilité l’œuvre des autres sciences, plus directement utiles, parce que c’est elle qui nous a fait une âme capable de comprendre la nature. Vous figurez-vous combien l’humanité serait diminuée, si, sous un ciel constamment couvert de nuages, comme doit l’être celui de Jupiter, elle avait éternellement ignoré les astres ? Croyez-vous que, dans un pareil monde, nous serions ce que nous sommes ? J’entends bien que sous cette sombre voûte, nous aurions été privés de la lumière du Soleil, nécessaire à des organismes comme ceux qui habitent la Terre. Mais, si vous voulez bien, nous admettrons que ces nuages sont phosphorescents et qu’ils répandent une lueur douce et constante. Puisque nous sommes en train de faire des hypothèses, une hypothèse de plus ne nous coûtera pas davantage. Eh bien ! je répète ma question : croyez-vous que, dans un pareil monde, nous serions ce que nous sommes ? C’est que les astres ne nous envoient pas seulement cette lumière visible et grossière qui frappe nos yeux de chair, c’est d’eux aussi que nous vient une lumière bien autrement subtile, qui éclaire nos esprits et dont je vais essayer de vous montrer les effets. Vous savez ce qu’était l’homme sur la Terre, il y a quelques milliers d’années, et ce qu’il est aujourd’hui. Isolé au milieu d’une nature où tout pour lui était mystère, effaré à chaque manifestation inattendue de forces incompréhensibles, il était incapable de voir dans la conduite de l’univers autre chose que le caprice ; il attribuait tous les phénomènes à l’action d’une multitude de petits génies fantasques et exigeants, et, pour agir sur le monde, il cherchait à se les concilier par des moyens analogues à ceux qu’on emploie pour gagner les bonnes grâces d’un ministre ou d’un député. Ses insuccès mêmes ne l’éclairaient pas, pas plus qu’aujourd’hui un solliciteur éconduit ne se décourage au point de cesser de solliciter. Aujourd’hui, nous ne sollicitons plus la Nature : nous lui commandons, parce que nous avons découvert quelques-uns de ses secrets et que nous en découvrons chaque jour de nouveaux. Nous lui commandons au nom de lois qu’elle ne peut récuser, parce que ce sont les siennes ; ces lois, nous ne lui demandons pas follement de les changer, nous sommes les premiers à nous y soumettre. Naturæ non imperatur nisi parendo. Quel changement ont dû subir nos âmes pour passer d’un état à l’autre ? Croit-on que, sans les leçons des astres, sous le ciel perpétuellement nuageux que je supposais tout à l’heure, elles auraient changé si vite ? La métamorphose aurait-elle été possible, ou du moins n’aurait-elle pas été beaucoup plus lente ? Et d’abord, c’est l’Astronomie qui nous a appris qu’il y a des lois. Les Chaldéens qui, les premiers, ont regardé le ciel avec quelque attention, ont bien vu que cette multitude de points lumineux n’est pas une foule confuse errant à l’aventure, mais plutôt une armée disciplinée. Sans doute les règles de cette discipline leur échappaient, mais le spectacle harmonieux de la nuit étoilée suffisait pour leur donner l’impression de la régularité, et c’était déjà beaucoup. Ces règles, d’ailleurs, Hipparque, Ptolémée, Copernic, Kepler les ont discernées l’une après l’autre, et, enfin, il est inutile de rappeler que c’est Newton qui a énoncé la plus ancienne, la plus précise, la plus simple, la plus générale de toutes les lois naturelles. Et alors, avertis par cet exemple, nous avons mieux regardé notre petit monde terrestre et, sous le désordre apparent, là aussi nous avons retrouvé l’harmonie que l’étude du Ciel nous avait fait connaître. Lui aussi est régulier, lui aussi obéit à des lois immuables, mais elles sont plus compliquées, en conflit apparent les unes avec les autres, et un œil qui n’aurait pas été accoutumé à d’autres spectacles, n’y aurait vu que le chaos et le règne du hasard ou du caprice. Si nous n’avions pas connu les astres, quelques esprits hardis auraient peut-être cherché à prévoir les phénomènes physiques ; mais leurs insuccès auraient été fréquents et ils n’auraient excité que la risée du vulgaire ; ne voyons-nous pas que, même de nos jours, les météorologistes se trompent quelquefois, et que certaines personnes sont portées à en rire. Combien de fois, les physiciens, rebutés partant d’échecs, ne se seraient- ils pas laissés aller au découragement, s’ils n’avaient eu, pour soutenir leur confiance, l’exemple éclatant du succès des astronomes ! Ce succès leur montrait que la Nature obéit à des lois ; il ne leur restait plus qu’à savoir à quelles lois ; pour cela, ils n’avaient besoin que de patience, et ils avaient le droit de demander que les sceptiques leur fissent crédit. Ce n’est pas tout : l’Astronomie ne nous a pas appris seulement qu’il y a des lois, mais que ces lois sont inéluctables, qu’on ne transige pas avec elles ; combien de temps nous aurait-il fallu pour le comprendre, si nous n’avions connu que le monde terrestre, où chaque force élémentaire nous apparaît toujours comme en lutte avec d’autres forces ? Elle nous a appris que les lois sont infiniment précises, et que si celles que nous énonçons sont approximatives, c’est parce que nous les connaissons mal. Aristote, l’esprit le plus scientifique de l’antiquité, accordait encore une part à l’accident, au hasard, et semblait penser que les lois de la Nature, au moins ici-bas, ne déterminent que les grands traits des phénomènes. Combien la précision toujours croissante des prédictions astronomiques a-t-elle contribué à faire justice d’une telle erreur qui aurait rendu la Nature inintelligible ! Mais ces lois ne sont-elles pas locales, variables d’un point à l’autre, comme celles que font les hommes ; ce qui est la vérité dans un coin de l’univers, sur notre globe, par exemple, ou dans notre petit système solaire, ne va-t-il pas devenir l’erreur un peu plus loin ? Et alors ne pourra-t-on pas se demander si les lois dépendant de l’espace ne dépendent pas aussi du temps, si elles ne sont pas de simples habitudes, transitoires, par conséquent, et éphémères ? C’est encore l’Astronomie qui va répondre à cette question. Regardons les étoiles doubles ; toutes décrivent des coniques ; ainsi, si loin que porte le télescope, il n’atteint pas les limites du domaine qui obéit à la loi de Newton. Il n’est pas jusqu’à la simplicité de cette loi qui ne soit une leçon pour nous ; que de phénomènes compliqués contenus dans les deux lignes de son énoncé ; les personnes qui ne comprennent pas la Mécanique céleste peuvent s’en rendre compte du moins en voyant la grosseur des traités consacrés à cette science ; et alors il est permis d’espérer que la complication des phénomènes physiques nous dissimule également je ne sais quelle cause simple encore inconnue. C’est donc l’Astronomie qui nous a montré quels sont les caractères généraux des lois naturelles ; mais, parmi ces caractères, il y en a un, le plus subtil et le plus important de tous, sur lequel je vous demanderai la permission d’insister un peu. Comment l’ordre de l’univers était-il compris par les anciens ; par exemple par Pythagore, Platon ou Aristote ? C’était ou un type immuable fixé une fois pour toutes, ou un idéal dont le monde cherchait à se rapprocher. C’est encore ainsi que pensait Kepler lui-même quand, par exemple, il cherchait si les distances des planètes au Soleil n’avaient pas quelque rapport avec les cinq polyèdres réguliers. Cette idée n’avait rien d’absurde, mais elle eût été stérile, puisque ce n’est pas ainsi que la Nature est faite. C’est Newton qui nous a montré qu’une loi n’est qu’une relation nécessaire entre l’état présent du monde et son état immédiatement postérieur. Toutes les autres lois, découvertes depuis, ne sont pas autre chose, ce sont, en somme, des équations différentielles ; mais c’est l’Astronomie qui nous en a fourni le premier modèle sans lequel nous aurions sans doute erré bien longtemps. C’est elle aussi qui nous a le mieux appris à nous défier des apparences. Le jour où Copernic a prouvé que ce qu’on croyait le plus stable était en mouvement, que ce qu’on croyait mobile était fixe, il nous a montré combien pouvaient être trompeurs les raisonnements enfantins qui sortent directement des données immédiates de nos sens ; certes, ses idées n’ont pas triomphé sans peine, mais, après ce triomphe, il n’est plus de préjugé si invétéré que nous ne soyons de force à secouer. Comment estimer le prix de l’arme nouvelle ainsi conquise ? Les anciens croyaient que tout était fait pour l’homme, et il faut croire que cette illusion est bien tenace, puisqu’il faut sans cesse la combattre. Il faut pourtant qu’on s’en dépouille ; ou bien on ne sera qu’un éternel myope, incapable de voir la vérité. Pour comprendre la Nature, il faut pouvoir sortir de soi-même, pour ainsi dire, et la contempler de plusieurs points de vue différents ; sans cela, on n’en connaîtra jamais qu’un côté. Or, sortir de lui- même, c’est ce que ne peut faire celui qui rapporte tout à lui-même. Qui donc nous a délivrés de cette illusion ? Ce furent ceux qui nous ont montré que la Terre n’est qu’une des plus petites planètes du Système solaire, et que le Système solaire, lui-même, n’est qu’un point imperceptible dans les espaces infinis de l’Univers stellaire. En même temps, l’Astronomie nous apprenait à ne pas nous effrayer des grands nombres, et cela était nécessaire, non seulement pour connaître le Ciel, mais pour connaître la Terre elle-même ; et cela n’était pas aussi facile qu’il nous le semble aujourd’hui. Essayons de revenir en arrière et de nous figurer ce qu’aurait pensé un Grec à qui l’on serait venu dire que la lumière rouge vibre quatre cent millions de millions de fois par seconde. Sans aucun doute, une pareille assertion lui aurait paru une pure folie et il ne se serait jamais abaissé à la contrôler. Aujourd’hui, une hypothèse ne nous paraîtra plus absurde, parce qu’elle nous oblige à imaginer des objets beaucoup plus grands ou beaucoup plus petits que ceux que nos sens sont capables de nous montrer, et nous ne comprenons plus ces scrupules qui arrêtaient nos devanciers et les empêchaient de découvrir certaines vérités simplement parce qu’ils en avaient peur. Mais pourquoi ? c’est parce que nous avons vu le Ciel s’agrandir et s’agrandir sans cesse ; parce que nous savons que le Soleil est à 150 millions de kilomètres de la Terre et que les distances des étoiles les plus rapprochées sont des centaines de mille fois plus grandes encore. Habitués à contempler l’infiniment grand, nous sommes devenus aptes à comprendre l’infiniment petit. Grâce à l’éducation qu’elle a reçue, notre imagination, comme l’œil de l’aigle que le Soleil n’éblouit pas, peut regarder la vérité face à face. Avais-je tort de dire que c’est l’Astronomie qui nous a fait une âme capable de comprendre la Nature ; que, sous un ciel toujours nébuleux et privé d’astres, la Terre elle-même eût été pour nous éternellement inintelligible ; que nous n’y aurions vu que le caprice et le désordre, et que, ne connaissant pas le monde, nous n’aurions pu l’asservir ? Quelle science eût pu être plus utile ? Et en parlant ainsi je me place au point de vue de ceux qui n’estiment que les applications pratiques. Certes, ce point de vue n’est pas le mien ; moi, au contraire, si j’admire les conquêtes de l’industrie, c’est surtout parce qu’en nous affranchissant des soucis matériels, elles donneront un jour à tous le loisir de contempler la Nature ; je ne dis pas : la Science est utile, parce qu’elle nous apprend à construire des machines ; je dis : les machines sont utiles, parce qu’en travaillant pour nous, elles nous laisseront un jour plus de temps pour faire de la science. Mais enfin il n’est pas indifférent de remarquer qu’entre les deux points de vue il n’y a pas de désaccord, et que l’homme ayant poursuivi un but désintéressé, tout le reste lui est venu par surcroît. Auguste Comte a dit, je ne sais où, qu’il serait vain de chercher à connaître la composition du Soleil, parce que cette connaissance ne pourrait être d’aucune utilité pour la Sociologie. Comment a-t-il pu avoir la vue si courte ? Ne venons-nous pas de voir que c’est par l’Astronomie que, pour parler son langage, l’humanité est passée de l’état théologique à l’état positif. Cela, il s’en est rendu compte, parce que c’était fait. Mais comment n’a-t-il pas compris que ce qui restait à faire n’était pas moins considérable et ne serait pas moins profitable ? L’Astronomie physique, qu’il semble condamner, a déjà commencé à nous donner des fruits, et elle nous en donnera bien d’autres, car elle ne date que d’hier. Tout d’abord, on a reconnu la nature du Soleil, que le fondateur du positivisme voulait nous interdire, et on y a trouvé des corps qui existent sur la Terre et qui y étaient restés inaperçus ; par exemple, l’hélium, ce gaz presque aussi léger que l’hydrogène. C’était déjà pour Comte un premier démenti. Mais à la spectroscopie, nous devons un enseignement bien autrement précieux ; dans les étoiles les plus lointaines, elle nous montre les mêmes substances ; on aurait pu se demander si les éléments terrestres n’étaient pas dus à quelque hasard qui aurait rapproché des atomes plus ténus pour en construire l’édifice plus complexe que les chimistes nomment atome ; si, dans d’autres régions de l’univers, d’autres rencontres fortuites n’avaient pas pu engendrer des édifices entièrement différents. Nous savons maintenant qu’il n’en est rien, que les lois de notre chimie sont des lois générales de la Nature et qu’elles ne doivent rien au hasard qui nous a fait naître sur la Terre. Mais, dira-t-on, l’Astronomie a donné aux autres sciences tout ce qu’elle pouvait leur donner, et maintenant que le Ciel nous a procuré les instruments qui nous permettent d’étudier la nature terrestre, il pourrait, sans danger se voiler pour toujours. Après ce que nous venons de dire, est-il besoin de répondre à cette objection ? On aurait pu raisonner de même du temps de Ptolémée ; alors aussi, on croyait tout savoir, et on avait encore presque tout à apprendre. Les astres sont des laboratoires grandioses, des creusets gigantesques, comme aucun chimiste ne pourrait en rêver. Il y règne des températures qu’il nous est impossible de réaliser. Leur seul défaut, c’est d’être un peu loin ; mais le télescope va les rapprocher de nous, et alors nous verrons comment la matière s’y comporte. Quelle bonne fortune pour le physicien et le chimiste ! La matière s’y montrera à nous sous mille états divers, depuis ces gaz raréfiés qui semblent former les nébuleuses et qui s’illuminent de je ne sais quelle lueur d’origine mystérieuse, jusqu’aux étoiles incandescentes et aux planètes si voisines et pourtant si différentes de nous. Peut-être même les astres nous apprendront-ils un jour quelque chose sur la vie ; cela semble un rêve insensé, et je ne vois pas du tout comment il pourrait se réaliser ; mais, il y a cent ans, la chimie des astres n’aurait-elle pas paru aussi un rêve insensé ? Mais bornons nos regards à des horizons moins lointains, il nous restera encore des promesses moins aléatoires et bien assez séduisantes. Si le passé nous a beaucoup donné, nous pouvons être assurés que l’avenir nous donnera plus encore. En résumé, on ne saurait croire combien la croyance à l’Astrologie a été utile à l’humanité. Si Képler et Tycho-Brahé ont pu vivre, c’est parce qu’ils vendaient à des rois naïfs des prédictions fondées sur les conjonctions des astres. Si ces princes n’avaient pas été si crédules, nous continuerions peut- être à croire que la Nature obéit au caprice, et nous croupirions encore dans l’ignorance.      CHAPITRE VII L’Histoire de la Physique mathématique Le Passé et l’Avenir de la Physique — Quel est l’état actuel de la Physique Mathématique ? Quels sont les problèmes qu’elle est amenée à se poser ? Quel est son avenir ? Son orientation est-elle sur le point de se modifier ? Le but et les méthodes de cette science vont-ils apparaître dans dix ans à nos successeurs immédiats sous le même jour qu’à nous-mêmes ; ou au contraire allons-nous assister à une transformation profonde ? Telles sont les questions que nous sommes forcés de soulever, en abordant aujourd’hui notre enquête. S’il est facile de les poser, il est difficile d’y répondre. Si nous nous sentions tentés de risquer un pronostic, nous résisterions aisément à cette tentation en songeant à toutes les sottises qu’auraient dites les savants les plus éminents d’il y a cent ans, si on leur avait demandé ce que serait la science au XIX e siècle. Ils auraient cru être hardis dans leurs prédictions, et combien, après l’événement, nous les trouverions timides. N’attendez donc de moi aucune prophétie. Mais si, comme tous les médecins prudents, je répugne à donner un pronostic, je ne puis pourtant me dispenser d’un petit diagnostic ; eh bien, oui, il y a des indices d’une crise sérieuse, comme si nous devions nous attendre à une transformation prochaine. Ne soyons pas toutefois trop inquiets. Nous sommes assurés que la malade n’en mourra pas et même nous pouvons espérer que cette crise sera salutaire, car l’histoire du passé semble nous le garantir. Cette crise en effet n’est pas la première et il importe, pour la comprendre, de se rappeler celles qui l’ont précédée. Pardonnez-moi donc un court historique.   La Physique des forces centrales. — La Physique Mathématique, nous le savons, est née de la Mécanique céleste qui l’a engendrée à la fin du XVIII e siècle, au moment où elle venait elle-même d’atteindre son complet développement. Dans ses premières années surtout, l’enfant ressemblait à sa mère d’une manière frappante. L’Univers astronomique est formé de masses, très grandes sans doute, mais séparées par des distances tellement immenses qu’elles ne nous apparaissent que comme des points matériels ; ces points s’attirent en raison inverse du carré des distances et cette attraction est la seule force qui influe sur leurs mouvements. Mais si nos sens étaient assez subtils pour nous montrer tous les détails des corps qu’étudie le physicien, le spectacle que nous y découvririons différerait à peine de celui que contemple l’astronome. Là aussi nous verrions des points matériels séparés les uns des autres par des intervalles énormes par rapport à leurs dimensions et décrivant des orbites suivant des lois régulières. Ces astres infiniment petits, ce sont les atomes. Comme les astres proprement dits, ils s’attirent ou se repoussent, et cette attraction ou cette répulsion, dirigée suivant la droite qui les joint, ne dépend que de la distance. La loi suivant laquelle cette force varie en fonction de la distance n’est peut-être pas la loi de Newton, mais c’est une loi analogue ; au lieu de l’exposant –2, nous avons probablement un exposant différent, et c’est de ce changement d’exposant que sort tout la diversité des phénomènes physiques, la variété des qualités et des sensations, tout le monde coloré et sonore qui nous entoure, toute la Nature en un mot. Telle est la conception primitive dans toute sa pureté. Il ne reste plus qu’à chercher dans les différents cas quelle valeur il convient de donner à cet exposant afin de rendre compte de tous les faits. C’est sur ce modèle que Laplace, par exemple, a construit sa belle théorie de la Capillarité ; il ne la regarde que comme un cas particulier de l’attraction, ou, comme il dit, de la pesanteur universelle, et personne ne s’étonne de la trouver au milieu de l’un des cinq volumes de la Mécanique Céleste. Plus récemment, Briot croit avoir pénétré le dernier secret de l’Optique quand il a démontré que les atomes d’éther s’attirent en raison inverse de la 6 e puissance de la distance ; et Maxwell, Maxwell lui-même, ne dit-il pas quelque part que les atomes des gaz se repoussent en raison inverse de la 5 e puissance de la distance. Nous avons l’exposant –6, ou –5 au lieu de l’exposant –2, mais c’est toujours un exposant. Parmi les théories de cette époque, une seule fait exception, celle de Fourier, pour la propagation de la chaleur ; il y a bien des atomes, agissant à distance, l’un sur l’autre ; ils s’envoient mutuellement de la chaleur, mais ils ne s’attirent pas, ils ne bougent pas. À ce point de vue, la théorie de Fourier devait apparaître aux yeux de ses contemporains, à ceux de Fourier lui- même, comme imparfaite et provisoire. Cette conception n’était pas sans grandeur ; elle était séduisante, et beaucoup d’entre nous n’y ont pas définitivement renoncé ; ils savent qu’on n’atteindra les éléments ultimes des choses qu’en débrouillant patiemment l’écheveau compliqué que nous donnent nos sens ; qu’il faut avancer pas à pas en ne négligeant aucun intermédiaire, que nos pères ont eu tort de vouloir brûler les étapes, mais ils croient que quand on arrivera à ces éléments ultimes, on y retrouvera la simplicité majestueuse de la Mécanique Céleste. Cette conception n’a pas non plus été inutile ; elle nous a rendu un service inappréciable, puisqu’elle a contribué à préciser en nous la notion fondamentale de la loi physique. Je m’explique ; comment les anciens comprenaient-ils la Loi ? C’était pour eux une harmonie interne, statique pour ainsi dire et immuable ; ou bien c’était comme un modèle que la nature s’efforçait d’imiter. Une loi, pour nous, ce n’est plus cela du tout ; c’est une relation constante entre le phénomène d’aujourd’hui et celui de demain ; en un mot, c’est une équation différentielle. Voilà la forme idéale de la loi physique ; eh bien, c’est la loi de Newton qui l’a revêtue la première. Si ensuite on a acclimaté cette forme en physique, c’est précisément en copiant autant que possible cette loi de Newton, c’est en imitant la Mécanique Céleste. C’est là, d’ailleurs, l’idée que je me suis efforcé de faire ressortir au chapitre VI.   La Physique des principes. — Néanmoins, il est arrivé un jour où la conception des forces centrales n’a plus paru suffisante, et c’est la première de ces crises dont je vous parlais tout à l’heure. Que fit-on alors ? On renonça à pénétrer dans le détail de la structure de l’univers, à isoler les pièces de ce vaste mécanisme, à analyser une à une les forces qui les mettent en branle et on se contenta de prendre pour guides certains principes généraux qui ont précisément pour objet de nous dispenser de cette étude minutieuse. Comment cela ? Supposons que nous ayons en face de nous une machine quelconque ; le rouage initial et le rouage final sont seuls apparents, mais les transmissions, les rouages intermédiaires par lesquels le mouvement se communique de l’un à l’autre sont cachés à l’intérieur et échappent à notre vue ; nous ignorons si la communication se fait par des engrenages ou par des courroies, par des bielles ou par d’autres dispositifs. Dirons-nous qu’il nous est impossible de rien comprendre à cette machine tant qu’on ne nous permettra pas de la démonter ? Vous savez bien que non et que le principe de la conservation de l’énergie suffit pour nous fixer sur le point le plus intéressant ; nous constatons aisément que la roue finale tourne dix fois moins vite que la roue initiale, puisque ces deux roues sont visibles ; nous pouvons en conclure qu’un couple appliqué à la première fera équilibre à un couple dix fois plus grand appliqué à la seconde. Point n’est besoin pour cela de pénétrer le mécanisme de cet équilibre et de savoir comment les forces se compenseront à l’intérieur de la machine ; c’est assez de s’assurer que cette compensation ne peut pas ne pas se produire. Eh bien, en présence de l’univers, le principe de la conservation de l’énergie peut nous rendre le même service. C’est aussi une machine beaucoup plus compliquée que toutes celles de l’industrie, et dont presque toutes les parties nous sont profondément cachées ; mais en observant le mouvement de celles que nous pouvons voir, nous pouvons, en nous aidant de ce principe, tirer des conclusions qui resteront vraies quels que soient les détails du mécanisme invisible qui les anime. Le principe de la conservation de l’énergie, ou principe de Mayer, est certainement le plus important, mais ce n’est pas le seul, il y en a d’autres dont nous pouvons tirer le même parti. Ce sont : Le principe de Carnot, ou principe de la dégradation de l’énergie ; Le principe de Newton, ou principe de l’égalité de l’action et de la réaction ; Le principe de la relativité, d’après lequel les lois des phénomènes physiques doivent être les mêmes, soit pour un observateur fixe, soit pour un observateur entraîné dans un mouvement de translation uniforme ; de sorte que nous n’avons et ne pouvons avoir aucun moyen de discerner si nous sommes, oui ou non, emportés dans un pareil mouvement ; Le principe de la conservation de la masse, ou principe de Lavoisier ; J’ajouterai le principe de moindre action. L’application de ces cinq ou six principes généraux aux différents phénomènes physiques suffit pour nous en apprendre ce que nous pouvons raisonnablement espérer en connaître. Le plus remarquable exemple de cette nouvelle Physique Mathématique est sans contredit la théorie électromagnétique de la Lumière de Maxwell. Qu’est-ce que l’éther, comment sont disposées ses molécules, s’attirent-elles ou se repoussent- elles ? nous n’en savons rien ; mais nous savons que ce milieu transmet à la fois les perturbations optiques et les perturbations électriques ; nous savons que cette transmission doit se faire conformément aux principes généraux de la Mécanique et cela nous suffit pour établir les équations du champ électromagnétique. Ces principes sont des résultats d’expériences fortement généralisés ; mais ils semblent emprunter à leur généralité même un degré éminent de certitude. Plus ils sont généraux, en effet, plus on a fréquemment l’occasion de les contrôler et les vérifications, en se multipliant, en prenant les formes les plus variées et les plus inattendues, finissent par ne plus laisser de place au doute.   Utilité de l’ancienne Physique. — Telle est la seconde phase de l’histoire de la Physique Mathématique et nous n’en sommes pas encore sortis. Dirons-nous que la première a été inutile, que pendant cinquante ans la science a fait fausse route et qu’il n’y a plus qu’à oublier tant d’efforts accumulés qu’une conception vicieuse condamnait d’avance à l’insuccès ? Pas le moins du monde. Croyez-vous que la seconde phase aurait pu exister sans la première ? L’hypothèse des forces centrales contenait tous les principes ; elle les entraînait comme des conséquences nécessaires ; elle entraînait et la conservation de l’énergie, et celle des masses, et l’égalité de l’action et de la réaction, et la loi de moindre action, qui apparaissaient, il est vrai, non comme des vérités expérimentales, mais comme des théorèmes ; et dont l’énoncé avait en même temps je ne sais quoi de plus précis et de moins général que sous leur forme actuelle. C’est la Physique Mathématique de nos pères qui nous a familiarisés peu à peu avec ces divers principes, qui nous a habitués à les reconnaître sous les différents vêtements dont ils se déguisent. On les a comparés aux données de l’expérience, on a vu comment il fallait en modifier l’énoncé pour les adapter à ces données ; par là on les a élargis et consolidés. On a été conduit ainsi à les regarder comme des vérités expérimentales ; la conception des forces centrales devenait alors un soutien inutile, ou plutôt une gêne, puisqu’elle faisait participer les principes de son caractère hypothétique. Les cadres ne se sont donc pas brisés parce qu’ils étaient élastiques ; mais ils se sont élargis ; nos pères, qui les avaient établis, n’avaient pas travaillé en vain ; et nous reconnaissons dans la science d’aujourd’hui les traits généraux de l’esquisse qu’ils avaient tracée.     CHAPITRE VIII La Crise actuelle de la Physique mathématique La crise nouvelle. — Allons-nous entrer maintenant dans une troisième phase ? Sommes-nous à la veille d’une seconde crise ? Ces principes sur lesquels nous avons tout bâti vont-ils s’écrouler à leur tour ? Depuis quelque temps, on peut se le demander. En m’entendant parler ainsi, vous pensez sans doute au radium, ce grand révolutionnaire des temps présents, et en effet je vais y revenir tout à l’heure ; mais il y a autre chose ; ce n’est pas seulement la conservation de l’énergie qui est en cause ; tous les autres principes sont également en danger, comme nous allons le voir en les passant successivement en revue.   Le principe de Carnot. — Commençons par le principe de Carnot. C’est le seul qui ne se présente pas comme une conséquence immédiate de l’hypothèse des forces centrales ; bien mieux, il semble sinon contredire directement cette hypothèse, du moins ne pas se concilier avec elle sans un certain effort. Si les phénomènes physiques étaient dus exclusivement aux mouvements d’atomes dont les attractions mutuelles ne dépendraient que de la distance, il semble que tous ces phénomènes devraient être réversibles ; si toutes les vitesses initiales étaient renversées, ces atomes toujours soumis aux mêmes forces devraient parcourir leurs trajectoires en sens contraire, de même que la terre décrirait dans le sens rétrograde cette même orbite elliptique qu’elle décrit dans le sens direct, si les conditions initiales de son mouvement avaient été renversées. À ce compte, si un phénomène physique est possible, le phénomène inverse doit l’être également et on doit pouvoir remonter le cours du temps. Or, il n’en est pas ainsi dans la Nature, et c’est précisément ce que le principe de Carnot nous enseigne, la chaleur peut passer du corps chaud sur le corps froid, et il est impossible ensuite de lui faire reprendre le chemin inverse et de rétablir des différences de température qui se sont effacées. Le mouvement peut être intégralement dissipé et transformé en chaleur par le frottement ; la transformation contraire ne pourra jamais se faire que d’une manière partielle. On s’est efforcé de concilier cette apparente contradiction. Si le monde tend vers l’uniformité, ce n’est pas parce que ses parties ultimes, d’abord dissemblables, tendent à devenir de moins en moins différentes, c’est parce que, se déplaçant au hasard, elles finissent par se mélanger. Pour un œil qui distinguerait tous les éléments, la variété resterait toujours aussi grande ; chaque grain de cette poussière conserve son originalité et ne se modèle pas sur ses voisins ; mais comme le mélange devient de plus en plus intime, nos sens grossiers n’aperçoivent plus que l’uniformité. Voilà pourquoi, par exemple, les températures tendent à se niveler sans qu’il soit possible de revenir en arrière. Qu’une goutte de vin tombe dans un verre d’eau ; quelle que soit la loi du mouvement interne du liquide, nous le verrons bientôt se colorer d’une teinte rosée uniforme et à partir de ce moment on aura beau agiter le vase, le vin et l’eau ne paraîtront plus pouvoir se séparer. Ainsi voici quel serait le type du phénomène physique irréversible : cacher un grain d’orge dans un tas de blé, c’est facile ; l’y retrouver ensuite et l’en faire sortir, c’est pratiquement impossible. Tout cela, Maxwell et Boltzmann l’ont expliqué, mais celui qui l’a vu le plus nettement, dans un livre trop peu lu parce qu’il est un peu difficile à lire, c’est Gibbs, dans ses principes de Mécanique Statistique. Pour ceux qui se placent à ce point de vue, le principe de Carnot n’est qu’un principe imparfait, une sorte de concession à l’infirmité de nos sens ; c’est parce que nos yeux sont trop grossiers que nous ne distinguons pas les éléments du mélange ; c’est parce que nos mains sont trop grossières que nous ne savons pas les forcer à se séparer ; le démon imaginaire de Maxwell, qui peut trier les molécules une à une, saurait bien contraindre le monde à revenir en arrière. Y peut-il revenir de lui-même, cela n’est pas impossible, cela n’est qu’infiniment peu probable ; il y a des chances pour que nous attendions longtemps le concours des circonstances qui permettraient une rétrogradation ; mais, tôt ou tard, elles se réaliseront, après des années dont il faudrait des millions de chiffres pour écrire le nombre. Ces réserves, cependant, restaient tous théoriques, elles n’étaient pas bien inquiétantes, et le principe de Carnot conservait toute sa valeur pratique. Mais voici que la scène change. Le biologiste, armé de son microscope, a remarqué il y a longtemps dans ses préparations des mouvements désordonnés des petites particules en suspension ; c’est le mouvement brownien. Il a cru d’abord que c’était un phénomène vital, mais il a vu bientôt que les corps inanimés ne dansaient pas avec moins d’ardeur que les autres ; il a alors passé la main aux physiciens. Malheureusement, les physiciens se sont longtemps désintéressés de cette question ; on concentre de la lumière pour éclairer la préparation microscopique, pensaient-ils ; la lumière ne va pas sans chaleur, de là des inégalités de température, et dans le liquide des courants intérieurs qui produisent les mouvements dont on nous parle. M. Gouy eut l’idée d’y regarder de plus près et il vit, ou crut voir, que cette explication est insoutenable, que les mouvements deviennent d’autant plus vifs que les particules sont plus petites, mais qu’ils ne sont pas influencés par le mode d’éclairage. Si alors ces mouvements ne cessent pas, ou plutôt renaissent sans cesse, sans rien emprunter à une source extérieure d’énergie ; que devons-nous croire ? Nous ne devons pas, sans doute, renoncer pour cela à la conservation de l’énergie, mais nous voyons sous nos yeux tantôt le mouvement se transformer en chaleur par le frottement, tantôt la chaleur se changer inversement en mouvement, et cela sans que rien ne se perde, puisque le mouvement dure toujours. C’est le contraire du principe de Carnot. S’il en est ainsi, pour voir le monde revenir en arrière, nous n’avons plus besoin de l’œil infiniment subtil du démon de Maxwell, notre microscope nous suffit. Les corps trop gros, ceux qui ont, par exemple, un dixième de millimètre, sont heurtés de tous les côtés par les atomes en mouvement, mais ils ne bougent pas parce que ces chocs sont très nombreux et que la loi du hasard veut qu’ils se compensent ; mais les particules plus petites reçoivent trop peu de chocs pour que cette compensation se fasse à coup sûr et sont incessamment ballottées. Et voilà déjà l’un de nos principes en péril.   Le principe de relativité. — Venons au principe de relativité ; celui-là non seulement est confirmé par l’expérience quotidienne, non seulement il est une conséquence nécessaire de l’hypothèse des forces centrales, mais il s’impose à notre bon sens d’une façon irrésistible ; et pourtant lui aussi est battu en brèche. Supposons deux corps électrisés ; bien qu’ils nous semblent en repos, ils sont l’un et l’autre entraînés par le mouvement de la Terre ; une charge électrique en mouvement, Rowland nous l’a appris, équivaut à un courant ; ces deux corps chargés équivaudront donc à deux courants parallèles et de même sens et ces deux courants devront s’attirer. En mesurant cette attraction, nous mesurerons la vitesse de la Terre ; non pas sa vitesse par rapport au Soleil ou aux Étoiles fixes, mais sa vitesse absolue. Je sais bien ce qu’on va dire, ce n’est pas sa vitesse absolue que l’on mesure, c’est sa vitesse par rapport à l’éther. Que cela est peu satisfaisant ! Ne voit-on pas que du principe ainsi compris on ne pourra plus rien tirer ? Il ne pourrait plus rien nous apprendre justement parce qu’il ne craindrait plus aucun démenti. Si nous parvenons à mesurer quelque chose, nous serons toujours libres de dire que ce n’est pas la vitesse absolue, et si ce n’est pas la vitesse par rapport à l’éther, cela pourra toujours être la vitesse par rapport à quelque nouveau fluide inconnu dont nous remplirions l’espace. Aussi bien l’expérience s’est chargée de ruiner cette interprétation du principe de relativité ; toutes les tentatives pour mesurer la vitesse de la Terre par rapport à l’éther ont abouti à des résultats négatifs. Cette fois la physique expérimentale a été plus fidèle aux principes que la Physique Mathématique ; les théoriciens en auraient fait bon marché afin de mettre en concordance leurs autres vues générales ; mais l’expérience s’est obstinée à le confirmer. On a varié les moyens, enfin Michelson a poussé la précision jusqu’à ses dernières limites ; rien n’y a fait. C’est précisément pour expliquer cette obstination que les mathématiciens sont forcés aujourd’hui de déployer toute leur ingéniosité. Leur tâche n’était pas facile, et si Lorentz s’en est tiré, ce n’est qu’en accumulant les hypothèses. L’idée la plus ingénieuse a été celle du temps local. Imaginons deux observateurs qui veulent régler leurs montres par des signaux optiques ; ils échangent des signaux, mais comme ils savent que la transmission de la lumière n’est pas instantanée, ils prennent soin de les croiser. Quand la station B aperçoit le signal de la station A, son horloge ne doit pas marquer la même heure que celle de la station A au moment de l’émission du signal, mais cette heure augmentée d’une constante représentant la durée de la transmission. Supposons, par exemple, que la station A envoie son signal quand son horloge marque l’heure zéro, et que la station B l’aperçoive quand son horloge marque l’heure t. Les horloges sont réglées si le retard égal à t représente la durée de la transmission, et pour le vérifier la station B expédie à son tour un signal quand son horloge marque zéro, la station A doit alors l’apercevoir quand son horloge marque t. Les montres sont alors réglées. Et en effet elles marquent la même heure au même instant physique, mais à une condition, c’est que les deux stations soient fixes. Dans le cas contraire, la durée de la transmission ne sera pas la même dans les deux sens, puisque la station A par exemple marche au devant de la perturbation optique émanée de B, tandis que la station B fuit devant la perturbation émanée de A. Les montres réglées de la sorte ne marqueront donc pas le temps vrai, elles marqueront ce qu’on peut appeler le temps local, de sorte que l’une d’elles retardera sur l’autre. Peu importe, puisque nous n’avons aucun moyen de nous en apercevoir. Tous les phénomènes qui se produiront en A par exemple seront en retard, mais tous le seront également, et l’observateur ne s’en apercevra pas puisque sa montre retarde ; ainsi, comme le veut le principe de relativité, il n’aura aucun moyen de savoir s’il est en repos ou en mouvement absolu. Cela malheureusement ne suffit pas, et il faut des hypothèses complémentaires ; il faut admettre que les corps en mouvement subissent une contraction uniforme dans le sens du mouvement. L’un des diamètres de la Terre par exemple est raccourci de par suite du mouvement de notre planète, tandis que l’autre diamètre conserve sa longueur normale. Ainsi se trouvent compensées les dernières petites différences. Et puis il y a encore l’hypothèse sur les forces. Les forces, quelle que soit leur origine, la pesanteur comme l’élasticité, seraient réduites dans une certaine proportion, dans un monde animé d’une translation uniforme, ou plutôt c’est ce qui arriverait pour les composantes perpendiculaires à la translation : les composantes parallèles ne changeraient pas. Reprenons alors notre exemple de deux corps électrisés ; ces corps se repoussent, mais en même temps, si tout est entraîné dans une translation uniforme, ils équivalent à deux courants parallèles et de même sens qui s’attirent. Cette attraction électrodynamique se retranche donc de la répulsion électrostatique et la répulsion totale est plus faible que si les deux corps étaient en repos. Mais comme, pour mesurer cette répulsion, nous devons l’équilibrer par une autre force, et que toutes ces autres forces sont réduites dans la même proportion, nous ne nous apercevons de rien. Tout semble ainsi arrangé, mais tous les doutes sont-ils dissipés ? Qu’arriverait-il si on pouvait communiquer par des signaux qui ne seraient plus lumineux et dont la vitesse de propagation différerait de celle de la lumière ? Si, après avoir réglé les montres par le procédé optique, on voulait vérifier le réglage à l’aide de ces nouveaux signaux, on constaterait des divergences qui mettraient en évidence la translation commune des deux stations. Et de pareils signaux sont-ils inconcevables, si l’on admet avec Laplace que la gravitation universelle se transmet un million de fois plus vite que la lumière ? Ainsi le principe de relativité a été dans ces derniers temps vaillamment défendu, mais l’énergie même de la défense prouve combien l’attaque était sérieuse.   Le principe de Newton. — Parlons maintenant du principe de Newton, sur l’égalité de l’action et de la réaction. Celui-ci est intimement lié au précédent et il semble bien que la chute de l’un entraînerait celle de l’autre. Aussi ne devons-nous pas nous étonner de retrouver ici les mêmes difficultés. J’ai déjà montré plus haut que les nouvelles théories faisaient bon marché de ce principe. Les phénomènes électriques, d’après la théorie de Lorentz, sont dus aux déplacements de petites particules chargées appelées électrons et plongées dans le milieu que nous nommons éther. Les mouvements de ces électrons produisent des perturbations dans l’éther avoisinant ; ces perturbations se propagent dans tous les sens avec la vitesse de la lumière, et à leur tour d’autres électrons, primitivement en repos, se trouvent ébranlés quand la perturbation atteint les parties de l’éther qui les touchent. Les électrons agissent donc les uns sur les autres, mais cette action n’est pas directe, elle se fait par l’intermédiaire de l’éther. Dans ces conditions peut-il y avoir compensation entre l’action et la réaction, du moins pour un observateur qui ne tiendrait compte que des mouvements de la matière, c’est-à-dire des électrons, et qui ignorerait ceux de l’éther qu’il ne peut pas voir ? Évidemment non. Quand même la compensation serait exacte elle ne saurait être simultanée. La perturbation se propage avec une vitesse finie ; elle n’atteint donc le second électron que quand le premier est depuis longtemps rentré dans le repos. Ce second électron subira donc, avec un retard, l’action du premier, mais certainement à ce moment il ne réagira pas sur lui puisqu’autour de ce premier électron rien ne bouge plus. L’analyse des faits va nous permettre de préciser davantage. Imaginons, par exemple, un excitateur de Hertz comme ceux que l’on emploie en télégraphie sans fil ? il envoie de l’énergie dans tous les sens ; mais nous pouvons le munir d’un miroir parabolique, comme l’a fait Hertz avec ses plus petits excitateurs, afin de renvoyer toute l’énergie produite dans une seule direction. Qu’arrive-t-il alors, d’après la théorie ? c’est que l’appareil va reculer, comme s’il était un canon et si l’énergie qu’il a projetée était un boulet, et cela est contraire au principe de Newton, puisque notre projectile ici n’a pas de masse, ce n’est pas de la matière, c’est de l’énergie. Il en est encore de même d’ailleurs avec un phare pourvu d’un réflecteur puisque la lumière n’est autre chose qu’une perturbation du champ électromagnétique. Ce phare devra reculer comme si la lumière qu’il envoie était un projectile. Quelle est la force qui doit produire ce recul ? c’est ce qu’on a appelé la pression Maxwell-Bartholdi ; elle est très petite et on a eu bien du mal à la mettre en évidence avec les radiomètres les plus sensibles ; mais il suffit qu’elle existe. Si toute l’énergie issue de notre excitateur va tomber sur un récepteur, celui-ci se comportera comme s’il avait reçu un choc mécanique, qui représentera en un sens la compensation du recul de l’excitateur ; la réaction sera égale à l’action, mais elle ne sera pas simultanée, le récepteur avancera, mais pas au moment où l’excitateur reculera. Si l’énergie se propage indéfiniment sans rencontrer de récepteur, la compensation ne se fera jamais. Dira-t-on que l’espace qui sépare l’excitateur du récepteur et que la perturbation doit parcourir pour aller de l’un à l’autre n’est pas vide, qu’il est rempli, non seulement d’éther, mais d’air, ou même, dans les espaces interplanétaires, de quelque fluide subtil, mais encore pondérable ; que cette matière subit le choc comme le récepteur au moment où l’énergie l’atteint et recule à son tour quand la perturbation la quitte ? Cela sauverait le principe de Newton, mais cela n’est pas vrai ; si l’énergie en se propageant restait toujours attachée à quelque substratum matériel, la matière en mouvement entraînerait la lumière avec elle et Fizeau a démontré qu’il n’en est rien, au moins pour l’air. C’est ce que Michelson et Morley ont confirmé depuis. On peut supposer aussi que les mouvements de la matière proprement dite sont exactement compensés par ceux de l’éther, mais cela nous amènerait aux mêmes réflexions que tout à l’heure. Le principe ainsi entendu pourra tout expliquer, puisque, quels que soient les mouvements visibles, on aura toujours la faculté d’imaginer des mouvements hypothétiques qui les compensent. Mais s’il peut tout expliquer, c’est qu’il ne nous permet de rien prévoir, il ne nous permet pas de choisir entre les différentes hypothèses possibles, puisqu’il explique tout d’avance. Il devient donc inutile. Et puis les suppositions qu’il faudrait faire sur les mouvements de l’éther ne sont pas très satisfaisantes. Si les charges électriques doublent, il serait naturel d’imaginer que les vitesses des divers atomes d’éther doublent aussi, et, pour la compensation, il faut que la vitesse moyenne de l’éther quadruple. C’est pourquoi j’ai longtemps pensé que ces conséquences de la théorie, contraires au principe de Newton, finiraient un jour par être abandonnées et pourtant les expériences récentes sur les mouvements des électrons issus du radium semblent plutôt les confirmer.   Le principe de Lavoisier. — J’arrive au principe de Lavoisier sur la conservation des masses. Certes, c’en est un auquel on ne saurait toucher sans ébranler la mécanique. Et maintenant certaines personnes pensent qu’il ne nous paraît vrai que parce qu’on ne considère en mécanique que des vitesses modérées, mais qu’il cesserait de l’être pour des corps animés de vitesses comparables à celle de la lumière. Or, ces vitesses, on croit maintenant les avoir réalisées ; les rayons cathodiques et ceux du radium seraient formés de particules très petites ou d’électrons qui se déplaceraient avec des vitesses, plus petites sans doute que celle de la lumière, mais qui en seraient le dixième ou le tiers. Ces rayons peuvent être déviés soit par un champ électrique, soit par un champ magnétique, et on peut, en comparant ces déviations, mesurer à la fois la vitesse des électrons et leur masse (ou plutôt le rapport de leur masse à leur charge). Mais quand on a vu que ces vitesses se rapprochaient de celle de la lumière, on s’est avisé qu’une correction était nécessaire. Ces molécules, étant électrisées, ne peuvent se déplacer sans ébranler l’éther ; pour les mettre en mouvement, il faut triompher d’une double inertie, de celle de la molécule elle-même et de celle de l’éther. La masse totale ou apparente que l’on mesure se compose donc de deux parties : la masse réelle ou mécanique de la molécule, et la masse électrodynamique représentant l’inertie de l’éther. Les calculs d’Abraham et les expériences de Kauffman ont alors montré que la masse mécanique proprement dite est nulle et que la masse des électrons, ou au moins des électrons négatifs, est d’origine exclusivement électrodynamique. Voilà qui nous force à changer la définition de la masse ; nous ne pouvons plus distinguer la masse mécanique et la masse électrodynamique, parce qu’alors la première s’évanouirait ; il n’y a pas d’autre masse que l’inertie électrodynamique ; mais dans ce cas la masse ne peut plus être constante, elle augmente avec la vitesse ; et même, elle dépend de la direction, et un corps animé d’une vitesse notable n’opposera pas la même inertie aux forces qui tendent à le dévier de sa route, et à celles qui tendent à accélérer ou à retarder sa marche. Il y a bien encore une ressource : les éléments ultimes des corps sont des électrons, les uns chargés négativement, les autres chargés positivement. Les électrons négatifs n’ont pas de masse, c’est entendu ; mais les électrons positifs, d’après le peu qu’on en sait, semblent beaucoup plus gros. Peut- être ont-ils, outre leur masse électrodynamique, une vraie masse mécanique. La véritable masse d’un corps, ce serait alors la somme des masses mécaniques de ses électrons positifs, les électrons négatifs ne compteraient pas ; la masse ainsi définie pourrait encore être constante. Hélas ! cette ressource aussi nous échappe. Rappelons-nous ce que nous avons dit au sujet du principe de relativité et des efforts faits pour la sauver. Et ce n’est pas seulement un principe qu’il s’agit de sauver, ce sont les résultats indubitables des expériences de Michelson. Eh bien, ainsi que nous l’avons vu plus haut, pour rendre compte de ces résultats, Lorentz a été obligé de supposer que toutes les forces, quelle que soit leur origine, étaient réduites dans la même proportion dans un milieu animé d’une translation uniforme ; ce n’est pas assez, il ne suffit pas que cela ait lieu pour les forces réelles, il faut encore qu’il en soit de même pour les forces d’inertie ; il faut donc, dit-il, que les masses de toutes les particules soient influencées par une translation au même degré que les masses électromagnétiques des électrons. Ainsi les masses mécaniques doivent varier d’après les mêmes lois que les masses électrodynamiques ; elles ne peuvent donc pas être constantes. Ai-je besoin de faire observer que la chute du principe de Lavoisier entraîne celle du principe de Newton. Ce dernier signifie que le centre de gravité d’un système isolé se meut en ligne droite ; mais s’il n’y a plus de masse constante, il n’y a plus de centre de gravité, on ne sait même plus ce que c’est. C’est pourquoi j’ai dit plus haut que les expériences sur les rayons cathodiques avaient paru justifier les doutes de Lorentz au sujet du principe de Newton. De tous ces résultats, s’ils se confirmaient, sortirait une mécanique entièrement nouvelle qui serait surtout caractérisée par ce fait qu’aucune vitesse ne pourrait dépasser celle de la lumière  2 pas plus qu’aucune température ne peut tomber au-dessous du zéro absolu. Pour un observateur, entraîné lui-même dans une translation dont il ne se doute pas, aucune vitesse apparente ne pourrait non plus dépasser celle de la lumière ; et ce serait là une contradiction, si l’on ne se rappelait que cet observateur ne se servirait pas des mêmes horloges qu’un observateur fixe, mais bien d’horloges marquant le « temps local ». Nous voici alors en face d’une question que je me borne à poser. S’il n’y a plus de masse, que devient la loi de Newton ? La masse a deux aspects, c’est à la fois un coefficient d’inertie et une masse attirante entrant comme facteur dans l’attraction newtonienne. Si le coefficient d’inertie n’est pas constant, la masse attirante pourra-t-elle l’être ? Voilà la question.   Le principe de Mayer. — Du moins le principe de la conservation de l’énergie nous restait encore et celui-là paraissait plus solide. Vous rappellerai-je comment il fut à son tour jeté en discrédit ? L’événement a fait plus de bruit que les précédents et il est dans toutes les mémoires. Dès les premiers travaux de Becquerel et surtout quand les Curie eurent découvert le radium, on vit que tout corps radio-actif était une source inépuisable de radiation. Son activité semblait subsister sans altération à travers les mois et les années. C’était déjà là une entorse aux principes ; ces radiations, c’était en effet de l’énergie, et de ce même morceau de radium, il en sortait et il en sortait toujours. Mais ces quantités d’énergie étaient trop faibles pour être mesurées ; du moins on le croyait et on ne s’en inquiétait pas trop. La scène changea lorsque Curie s’avisa de mettre le radium dans un calorimètre ; alors on vit que la quantité de chaleur incessamment créée était très notable. Les explications proposées furent nombreuses ; mais en pareille matière on ne peut pas dire qu’abondance de biens ne nuit pas ; tant que l’une d’elles n’aura pas triomphé des autres, nous ne pourrons pas être sûrs qu’aucune d’entre elles soit bonne. Depuis quelque temps toutefois, une de ces explications semble prendre le dessus et on peut raisonnablement espérer que nous tenons la clef du mystère. Sir W. Ramsay a cherché à montrer que le radium se transforme, qu’il renferme une provision d’énergie énorme, mais non inépuisable. La transformation du radium produirait alors un million de fois plus de chaleur que toutes les transformations connues ; le radium s’épuiserait en 1250 ans ; c’est bien court, mais vous voyez que nous sommes du moins certain d’être fixés sur ce point d’ici quelques centaines d’années. En attendant nos doutes subsistent.      CHAPITRE IX L’Avenir de la Physique mathématique Les principes et l’expérience. — Au milieu de tant de ruines, que reste-t-il debout ? Le principe de moindre action est intact jusqu’ici, et Larmor paraît croire qu’il survivra longtemps aux autres ; il est en effet plus vague et plus général encore. En présence de cette débâcle générale des principes, quelle attitude va prendre la Physique Mathématique ? Et d’abord, avant de trop s’émouvoir il convient de se demander si tout cela est bien vrai. Toutes ces dérogations aux principes, on ne les rencontre que dans les infiniment petits ; il faut le microscope pour voir le mouvement brownien ; les électrons sont bien légers ; le radium est bien rare et on en a jamais que quelques milligrammes à la fois ; et alors on peut se demander si, à côté de l’infiniment petit qu’on a vu, il n’y avait pas un autre infiniment petit qu’on ne voyait pas et qui faisait contrepoids au premier. Il y a donc là une question préjudicielle, et à ce qu’il semble l’expérience seule peut la résoudre. Nous n’aurons donc qu’à passer la main aux expérimentateurs, et en attendant qu’ils aient tranché définitivement le débat, à ne pas nous préoccuper de ces inquiétants problèmes, et à continuer tranquillement notre œuvre comme si les principes étaient encore incontestés. Certes, nous avons beaucoup à faire sans sortir du domaine où on peut les appliquer en toute sûreté ; nous avons de quoi employer notre activité pendant cette période de doutes.   Le rôle de l’analyste. — Et pourtant ces doutes, est-il bien vrai que nous ne puissions rien faire pour en débarrasser la science ? Il faut bien le dire ce n’est pas seulement la physique expérimentale qui les a fait naître, la physique mathématique y a bien contribué pour sa part. Ce sont les expérimentateurs qui ont vu le radium dégager de l’énergie, mais ce sont les théoriciens qui ont mis en évidence toutes les difficultés soulevées par la propagation de la lumière à travers un milieu en mouvement ; sans eux il est probable qu’on ne s’en serait pas avisé. Eh bien, alors, s’ils ont fait de leur mieux pour nous mettre dans l’embarras, il convient aussi qu’ils nous aident à en sortir. Il faut qu’ils soumettent à la critique toutes ces vues nouvelles que je viens d’esquisser devant vous et qu’ils n’abandonnent les principes qu’après avoir fait un effort loyal pour les sauver. Que peuvent-ils faire dans ce sens ? C’est ce que je vais chercher à expliquer. Il s’agit avant tout d’obtenir une théorie plus satisfaisante de l’électrodynamique des corps en mouvement ? C’est là surtout, je l’ai suffisamment montré plus haut, que les difficultés s’accumulent ; on a beau entasser les hypothèses, on ne peut satisfaire à tous les principes à la fois ; on n’a pu réussir jusqu’ici à sauvegarder les uns qu’à la condition de sacrifier les autres ; mais tout espoir d’obtenir de meilleurs résultats n’est pas encore perdu. Prenons donc la théorie de Lorentz, retournons-la dans tous les sens ; modifions-la peu à peu, et tout s’arrangera peut-être. Ainsi au lieu de supposer que les corps en mouvement subissent une contraction dans le sens du mouvement et que cette contraction est la même quelle que soit la nature de ces corps et les forces auxquelles ils sont d’ailleurs soumis, ne pourrait-on pas faire une hypothèse plus simple et plus naturelle ? On pourrait imaginer, par exemple, que c’est l’éther qui se modifie quand il se trouve en mouvement relatif par rapport au milieu matériel qui le pénètre, que, quand il est ainsi modifié, il ne transmet plus les perturbations avec la même vitesse dans tous les sens. Il transmettrait plus rapidement celles qui se propageraient parallèlement au mouvement du milieu, soit dans le même sens, soit dans le sens contraire, et moins rapidement celles qui se propageraient perpendiculairement. Les surfaces d’ondes ne seraient plus des sphères, mais des ellipsoïdes et on pourrait se passer de cette extraordinaire contraction de tous les corps. Je ne cite cela qu’à titre d’exemple, car les modifications que l’on pourrait essayer seraient évidemment susceptibles de varier à l’infini.   L’aberration et l’astronomie. — Il est possible aussi que l’astronomie nous fournisse un jour des données sur ce point ; c’est elle, en somme, qui a soulevé la question en nous faisant connaître le phénomène de l’aberration de la lumière. Si on fait brutalement la théorie de l’aberration on arrive à un résultat bien curieux. Les positions apparentes des étoiles diffèrent de leurs positions réelles, à cause du mouvement de la Terre, et comme ce mouvement est variable, ces positions apparentes varient. La position réelle nous ne pouvons la connaître, mais nous pouvons observer les variations de la position apparente. Les observations de l’aberration nous montrent donc non le mouvement de la Terre, mais les variations de ce mouvement, elles ne peuvent par conséquent nous renseigner sur le mouvement absolu de la Terre. C’est du moins ce qui est vrai en première approximation, mais il n’en serait plus de même si on pouvait apprécier les millièmes de seconde. On verrait alors que l’amplitude de l’oscillation dépend non seulement de la variation du mouvement, variation qui est bien connue, puisque c’est le mouvement de notre globe sur son orbite elliptique, mais de la valeur moyenne de ce mouvement de sorte que la constante de l’aberration ne serait pas tout à fait la même pour toutes les Étoiles, et que les différences nous feraient connaître le mouvement absolu de la Terre dans l’espace. Ce serait là, sous une autre forme, la ruine du principe de relativité. Nous sommes loin, il est vrai, d’apprécier le millième de seconde, mais après tout, disent quelques personnes, la vitesse absolue totale de la Terre est peut-être beaucoup plus grande que sa vitesse relative par rapport au Soleil ; si elle était par exemple de 300 kilomètres par seconde au lieu de 30, cela suffirait pour que le phénomène devînt observable. Je crois qu’en raisonnant ainsi on admet une théorie trop simpliste de l’aberration ; Michelson nous a montré, je vous l’ai dit, que les procédés physiques sont impuissants à mettre en évidence le mouvement absolu ; je suis persuadé qu’il en sera de même des procédés astronomiques quelque loin que l’on pousse la précision. Quoiqu’il en soit, les données que l’Astronomie nous fournira dans ce sens seront un jour précieuses pour le physicien. En attendant, je crois que les théoriciens, se rappelant l’expérience de Michelson, peuvent escompter un résultat négatif, et qu’ils feraient œuvre utile en construisant une théorie de l’aberration qui en rendrait compte d’avance.   Les électrons et les spectres. — Cette dynamique des électrons peut être abordée par bien des côtés, mais parmi les chemins qui y conduisent, il y en a un qui a été quelque peu négligé, et c’est pourtant un de ceux qui nous promettent le plus de surprises. Ce sont les mouvements des électrons qui produisent les raies des spectres d’émission ; ce qui le prouve, c’est le phénomène de Zeeman ; dans un corps incandescent, ce qui vibre est sensible à l’aimant, donc électrisé. C’est là un premier point très important, mais on n’est pas entré plus avant ; pourquoi les raies du spectre sont-elles distribuées d’après une loi régulière ? Ces lois ont été étudiées par les expérimentateurs dans leurs moindres détails ; elles sont très précises et relativement simples. La première étude de ces distributions fait songer aux harmoniques que l’on rencontre en acoustique ; mais la différence est grande ; non seulement les nombres de vibrations ne sont pas les multiples successifs d’un même nombre ; mais nous ne retrouvons même rien d’analogue aux racines de ces équations transcendantes auxquelles nous conduisent tant de problèmes de Physique Mathématique : celui des vibrations d’un corps élastique de forme quelconque, celui des oscillations hertziennes dans un excitateur de forme quelconque, le problème de Fourier pour le refroidissement d’un corps solide. Les lois sont plus simples, mais elles sont de toute autre nature et pour ne citer qu’une de ces différences, pour les harmoniques d’ordre élevé le nombre des vibrations tend vers une limite finie ; au lieu de croître indéfiniment. De cela on n’a pas encore rendu compte, et je crois que c’est là un des plus importants secrets de la nature. Un physicien japonais M. Nagaoka a récemment proposé une explication ; les atomes seraient, d’après lui, formés d’un gros électron positif entouré d’un anneau formé d’un très grand nombre d’électrons négatifs très petits. Telle la planète Saturne avec son anneau. C’est là une tentative fort intéressante, mais pas encore tout à fait satisfaisante ; cette tentative il faudrait la renouveler. Nous pénétrerons pour ainsi dire dans l’intimité de la matière. Et au point de vue particulier qui nous occupe aujourd’hui, quand nous saurons pourquoi les vibrations des corps incandescents diffèrent ainsi des vibrations élastiques ordinaires, pourquoi les électrons ne se comportent pas comme la matière qui nous est familière, nous comprendrons mieux la dynamique des électrons et il nous sera peut-être plus facile de la concilier avec les principes.   Les conventions devant l’expérience. — Supposons maintenant que tous ces efforts échouent, et, tout compte fait, je ne le crois pas ; que faudra- t-il faire ? Faudra-t-il chercher à raccommoder les principes ébréchés, en donnant ce que nous autres Français nous appelons un coup de pouce ? Cela est évidemment toujours possible et je ne retire rien de ce que j’ai dit plus haut. N’avez-vous pas écrit, pourriez-vous me dire si vous vouliez me chercher querelle, n’avez-vous pas écrit que les principes, quoique d’origine expérimentale, sont maintenant hors des atteintes de l’expérience parce qu’ils sont devenus des conventions ? Et maintenant vous venez nous dire que les conquêtes les plus récentes de l’expérience mettent ces principes en danger. Eh bien, j’avais raison autrefois et je n’ai pas tort aujourd’hui. J’avais raison autrefois et ce qui se passe maintenant en est une preuve nouvelle. Prenons par exemple l’expérience calorimétrique de Curie sur le radium. Est-il possible de la concilier avec le principe de la conservation de l’énergie ? On l’a tenté de bien des manières ; mais il y en a une entre autres que je voudrais vous faire remarquer ; ce n’est pas l’explication qui tend aujourd’hui à prévaloir, mais c’est une de celles qui ont été proposées. On a supposé que le radium n’était qu’un intermédiaire, qu’il ne faisait qu’emmagasiner des radiations de nature inconnue qui sillonnaient l’espace dans tous les sens, en traversant tous les corps, sauf le radium, sans être altérées par ce passage et sans exercer sur eux aucune action. Le radium seul leur prendrait un peu de leur énergie et il nous la rendrait ensuite sous diverses formes. Quelle explication avantageuse et combien elle est commode ! D’abord elle est invérifiable et par là même irréfutable. Ensuite elle peut servir pour rendre compte de n’importe quelle dérogation au principe de Mayer ; elle répond d’avance non seulement à l’objection de Curie, mais à toutes les objections que les expérimentateurs futurs pourraient accumuler. Cette énergie nouvelle et inconnue pourra servir à tout. C’est bien ce que j’avais dit, et avec cela on nous montre bien que notre principe est hors des atteintes de l’expérience. Et après, qu’avons-nous gagné à ce coup de pouce ? Le principe est intact, mais à quoi désormais peut-il servir ? Il nous permettait de prévoir que dans telle ou telle circonstance nous pouvions compter sur telle quantité totale d’énergie ; il nous limitait ; mais maintenant qu’on met à notre disposition cette provision indéfinie d’énergie nouvelle, nous ne sommes plus limités par rien ; et, comme je l’ai écrit dans Science et Hypothèse, si un principe cesse d’être fécond, l’expérience, sans le contredire directement, l’aura cependant condamné.   La physique mathématique future. — Ce n’est donc pas cela qu’il faudrait faire ; nous devrions rebâtir à neuf. Si l’on était acculé à cette nécessité, nous pourrions d’ailleurs nous en consoler. Il ne faudrait pas en conclure que la science ne peut faire qu’un travail de Pénélope, qu’elle ne peut élever que des constructions éphémères qu’elle est bientôt forcée de démolir de fond en comble de ses propres mains. Comme je vous l’ai dit, nous avons déjà passé par une crise semblable. Je vous ai montré que, dans la seconde physique mathématique, celle des principes, on retrouve les traces de la première, celle des forces centrales ; il en sera encore de même si nous devons en connaître une troisième. Tel l’animal qui mue, qui brise sa carapace trop étroite et s’en fait une plus jeune ; sous son enveloppe nouvelle, on reconnaîtra aisément les traits essentiels de l’organisme qui ont subsisté. Dans quel sens allons-nous nous étendre, nous ne pouvons le prévoir ; peut-être est-ce la théorie cinétique des gaz qui va prendre du développement et servir de modèle aux autres. Alors les faits qui d’abord nous apparaissaient comme simples ne seraient plus que les résultantes d’un très grand nombre de faits élémentaires que les lois seules du hasard feraient concourir à un même but. La loi physique alors prendrait un aspect entièrement nouveau ; ce ne serait plus seulement une équation différentielle, elle prendrait le caractère d’une loi statistique. Peut-être aussi devrons-nous construire toute une mécanique nouvelle que nous ne faisons qu’entrevoir, où, l’inertie croissant avec la vitesse, la vitesse de la lumière deviendrait une limite infranchissable. La mécanique vulgaire, plus simple, resterait une première approximation puisqu’elle serait vraie pour les vitesses qui ne seraient pas très grandes, de sorte qu’on retrouverait encore l’ancienne dynamique sous la nouvelle. Nous n’aurions pas à regretter d’avoir cru aux principes, et même, comme les vitesses trop grandes pour les anciennes formules ne seraient jamais qu’exceptionnelles, le plus sûr dans la pratique serait encore de faire comme si on continuait à y croire. Ils sont si utiles qu’il faudrait leur conserver une place. Vouloir les exclure tout à fait, ce serait se priver d’une arme précieuse. Je me hâte de dire, pour terminer, que nous n’en sommes pas là et que rien ne prouve encore qu’ils ne sortiront pas de la lutte victorieux et intacts  3 .     TROISIÈME PARTIE LA VALEUR OBJECTIVE DE LA SCIENCE   CHAPITRE X La Science est-elle artificielle ? § 1. LA PHILOSOPHIE DE M. LE ROY Voilà bien des raisons d’être sceptiques ; devons-nous pousser ce scepticisme jusqu’au bout ou nous arrêter en chemin. Aller jusqu’au bout, c’est la solution la plus tentante, la plus commode et c’est celle que bien des personnes ont adoptée, désespérant de rien sauver du naufrage. Parmi les écrits qui s’inspirent de cette tendance il convient de placer en première ligne ceux de M. Le Roy. Ce penseur n’est pas seulement un philosophe et un écrivain du plus grand mérite, mais il a acquis une connaissance approfondie des sciences exactes et des sciences physiques, et même il a fait preuve de précieuses facultés d’invention mathématique. Résumons en quelques mots sa doctrine qui a donné lieu à de nombreuses discussions. La Science n’est faite que de conventions, et c’est uniquement à cette circonstance qu’elle doit son apparente certitude ; les faits scientifiques, et a fortiori, les lois sont l’œuvre artificielle du savant ; la science ne peut donc rien nous apprendre de la vérité, elle ne peut nous servir que de règle d’action. On reconnaît là la théorie philosophique connue sous le nom de nominalisme ; tout n’est pas faux dans cette théorie ; il faut lui réserver son légitime domaine, mais il ne faudrait pas non plus l’en laisser sortir. Ce n’est pas tout, la doctrine de M. Le Roy n’est pas seulement nominaliste ; elle a encore un autre caractère qu’elle doit sans doute à l’influence de M. Bergson, elle est anti-intellectualiste. Pour M. Le Roy, l’intelligence déforme tout ce qu’elle touche, et cela est plus vrai encore de son instrument nécessaire « le discours ». Il n’y a de réalité que dans nos impressions fugitives et changeantes, et cette réalité même, dès qu’on la touche, s’évanouit. Et cependant, M. Le Roy n’est pas un sceptique ; s’il regarde l’intelligence comme irrémédiablement impuissante, ce n’est que pour faire la part plus large à d’autres sources de connaissance, au cœur par exemple, au sentiment, à l’instinct ou à la foi. Quelle que soit mon estime pour le talent de M. Le Roy, quelle que soit l’ingéniosité de cette thèse, je ne saurais l’accepter tout entière. Certes je suis d’accord sur bien des points avec M. Le Roy, et il a même cité, à l’appui de sa manière de voir, divers passages de mes écrits que je ne suis nullement disposé à récuser. Je ne m’en crois que plus tenu d’expliquer pourquoi je ne puis le suivre jusqu’au bout. M. Le Roy se plaint souvent d’être accusé de scepticisme. Il ne pouvait pas ne pas l’être, encore que cette accusation soit probablement injuste. Les apparences ne sont-elles pas contre lui ? Nominaliste de doctrine, mais réaliste de cœur, il semble n’échapper au nominalisme absolu que par un acte de foi désespéré. C’est que la philosophie anti-intellectualiste, en récusant l’analyse et « le discours », se condamne par cela même à être intransmissible, c’est une philosophie essentiellement interne, ou tout au moins ce qui peut s’en transmettre, ce ne sont que les négations ; comment s’étonner alors que pour un observateur extérieur, elle prenne la figure du scepticisme ? C’est là le point faible de cette philosophie ; si elle veut rester fidèle à elle-même, elle épuise sa puissance dans une négation et un cri d’enthousiasme. Cette négation et ce cri, chaque auteur peut les répéter, en varier la forme, mais sans y rien ajouter. Et encore, ne serait-il pas plus conséquent en se taisant ? Voyons, vous avez écrit de longs articles, il a bien fallu pour cela que vous vous serviez de mots. Et par là n’avez-vous pas été beaucoup plus « discursif » et par conséquent beaucoup plus loin de la vie et de la vérité, que l’animal qui vit tout simplement sans philosopher ? Ne serait-ce pas cet animal qui est le véritable philosophe ? Pourtant, de ce qu’aucun peintre n’a pu faire un portrait tout à fait ressemblant, devons-nous conclure que la meilleure peinture soit de ne pas peindre ? Quand un zoologiste dissèque un animal, certainement il « l’altère ». Oui, en le disséquant, il se condamne à n’en jamais tout connaître ; mais en ne le disséquant pas, il se condamnerait à n’en jamais rien connaître et par conséquent à n’en jamais rien dire. Certes il y a dans l’homme d’autres forces que son intelligence, personne n’a jamais été assez fou pour le nier. Ces forces aveugles, le premier venu les fait agir ou les laisse agir ; le philosophe doit en parler ; pour en parler, il doit en connaître le peu qu’on en peut connaître, il doit donc les regarder agir. Comment ? avec quels yeux ? sinon avec son intelligence ? Le cœur, l’instinct, peuvent la guider, mais non la rendre inutile ; ils peuvent diriger le regard, mais non remplacer l’œil. Que le cœur soit l’ouvrier et que l’intelligence ne soit que l’instrument, on peut y consentir. Encore est-ce un instrument dont on ne peut se passer, sinon pour agir, au moins pour philosopher. C’est pour cela qu’une philosophie vraiment anti-intellectualiste est impossible. Peut-être devrons-nous conclure au « primat » de l’action ; toujours est-il que c’est notre intelligence qui conclura ainsi ; en cédant le pas à l’action, elle gardera de la sorte la supériorité du roseau pensant. C’est là aussi un « primat » qui n’est pas à dédaigner. Qu’on me pardonne ces courtes réflexions et qu’on me pardonne aussi de les faire si courtes et d’avoir à peine effleuré la question. Le procès de l’intellectualisme n’est pas le sujet que je veux traiter : je veux parler de la science et pour elle, il n’y a pas de doute ; par définition, pour ainsi dire, elle sera intellectualiste ou elle ne sera pas. Ce qu’il s’agit précisément de savoir, c’est si elle sera. § 2. — LA SCIENCE, RÈGLE D’ACTION Pour M. Le Roy, la science n’est qu’une règle d’action. Nous sommes impuissants à rien connaître et pourtant nous sommes embarqués, il nous faut agir, et à tout hasard, nous nous sommes fixé des règles. C’est l’ensemble de ces règles que l’on appelle la science. C’est ainsi que les hommes, désireux de se divertir, ont institué des règles de jeux, comme celle du tric-trac, par exemple, qui pourraient, mieux que la science elle-même, s’appuyer de la preuve du consentement universel. C’est ainsi également que, hors d’état de choisir, mais forcé de choisir, on jette en l’air une pièce de monnaie pour tirer à pile ou face. La règle du tric-trac est bien une règle d’action comme la science, mais croit-on que la comparaison soit juste et ne voit-on pas la différence ? Les règles du jeu sont des conventions arbitraires et on aurait pu adopter la convention contraire qui n’aurait pas été moins bonne. Au contraire, la Science est une règle d’action qui réussit, au moins généralement et, j’ajoute, tandis que la règle contraire n’aurait pas réussi. Si je dis, pour faire de l’hydrogène, faites agir un acide sur du zinc, je formule une règle qui réussit ; j’aurais pu dire, faites agir de l’eau distillée sur de l’or ; cela aurait été aussi une règle, seulement elle n’aurait pas réussi. Si donc les « recettes » scientifiques ont une valeur, comme règle d’action, c’est que nous savons qu’elles réussissent, du moins en général. Mais savoir cela, c’est bien savoir quelque chose et alors pourquoi venez- vous nous dire que nous ne pouvons rien connaître ? La science prévoit, et c’est parce qu’elle prévoit qu’elle peut être utile et servir de règle d’action. J’entends bien que ses prévisions sont souvent démenties par l’événement ; cela prouve que la science est imparfaite et si j’ajoute qu’elle le restera toujours, je suis certain que c’est là une prévision qui, elle du moins, ne sera jamais démentie. Toujours est-il que le savant se trompe moins souvent qu’un prophète qui prédirait au hasard. D’autre part le progrès est lent, mais continu, de sorte que les savants, quoique de plus en plus hardis, sont de moins en moins déçus. C’est peu, mais c’est assez. Je sais bien que M. Le Roy a dit quelque part que la Science se trompait plus souvent qu’on ne croit, que les comètes jouaient parfois des tours aux astronomes, que les savants, qui apparemment sont des hommes, ne parlaient pas volontiers de leurs insuccès et que, s’ils en parlaient, ils devraient compter plus de défaites que de victoires. Ce jour-là, M. Le Roy a évidemment dépassé sa pensée. Si la Science ne réussissait pas, elle ne pourrait servir de règle d’action ; d’où tirerait-elle sa valeur ? De ce qu’elle est « vécue », c’est-à-dire de ce que nous l’aimons et que nous croyons en elle ? Les alchimistes avaient des recettes pour faire de l’or, ils les aimaient et avaient foi en elles, et pourtant ce sont nos recettes qui sont les bonnes, bien que notre foi soit moins vive, parce qu’elles réussissent. Il n’y a pas moyen d’échapper à ce dilemme ; ou bien la science ne permet pas de prévoir, et alors elle est sans valeur comme règle d’action ; ou bien elle permet de prévoir d’une façon plus ou moins imparfaite, et alors elle n’est pas sans valeur comme moyen de connaissance. On ne peut même pas dire que l’action soit le but de la science ; devons- nous condamner les études faites sur l’étoile Sirius, sous prétexte que nous n’exercerons probablement jamais aucune action sur cet astre ? À mes yeux au contraire, c’est la connaissance qui est le but, et l’action qui est le moyen. Si je me félicite du développement industriel, ce n’est pas seulement parce qu’il fournit un argument facile aux avocats de la science ; c’est surtout parce qu’il donne au savant la foi en lui-même et aussi parce qu’il lui offre un champ d’expérience immense, où il se heurte à des forces trop colossales pour qu’il y ait moyen de donner un coup de pouce. Sans ce lest, qui sait s’il ne quitterait pas terre, séduit par le mirage de quelque scholastique nouvelle, ou s’il ne désespérerait pas en croyant qu’il n’a fait qu’un rêve ? § 3. — LE FAIT BRUT ET LE FAIT SCIENTIFIQUE Ce qu’il y avait de plus paradoxal dans la thèse de M. Le Roy, c’était cette affirmation que le savant crée le fait ; c’en était en même temps le point essentiel et c’est un de ceux qui ont été le plus discutés. Peut-être, dit-il (je crois bien que c’était là une concession), n’est-ce pas le savant qui crée le fait brut ; c’est du moins lui qui crée le fait scientifique. Cette distinction du fait brut et du fait scientifique ne me paraît pas illégitime par elle-même. Mais je me plains d’abord que la frontière n’ait été tracée ni d’une manière exacte, ni d’une manière précise ; et ensuite que l’auteur ait semblé sous-entendre que le fait brut, n’étant pas scientifique, est en dehors de la science. Enfin je ne puis admettre que le savant crée librement le fait scientifique puisque c’est le fait brut qui le lui impose. Les exemples donnés par M. Le Roy m’ont beaucoup étonné. Le premier est emprunté à la notion d’atome. L’atome choisi comme exemple de fait ! j’avoue que ce choix m’a tellement déconcerté que je préfère n’en rien dire. J’ai évidemment mal compris la pensée de l’auteur et je ne saurais la discuter avec fruit. Le second cas pris pour exemple est celui d’une éclipse où le phénomène brut est un jeu d’ombre et de lumière, mais où l’astronome ne peut intervenir sans apporter deux éléments étrangers, à savoir une horloge et la loi de Newton. Enfin M. Le Roy cite la rotation de la Terre ; on lui a répondu : mais ce n’est pas un fait, et il a répliqué : c’en était un pour Galilée qui l’affirmait comme pour l’inquisiteur qui le niait. Toujours est-il que ce n’est pas un fait au même titre que ceux dont nous venons de parler et que leur donner le même nom, c’est s’exposer à bien des confusions. Voilà donc quatre degrés : 1° Il fait noir, dit l’ignorant. 2° L’éclipse a eu lieu à neuf heures, dit l’astronome. 3° L’éclipse a eu lieu à l’heure que l’on peut déduire des tables construites d’après les lois de Newton, dit-il encore. 4° Cela tient à ce que la terre tourne autour du soleil, dit enfin Galilée. Où est donc la frontière entre le fait brut et le fait scientifique ? À lire M. Le Roy on croirait que c’est entre le premier et le deuxième échelon, mais qui ne voit qu’il y a plus de distance du deuxième au troisième, et plus encore du troisième au quatrième. Qu’on me permette de citer deux exemples qui nous éclaireront peut- être un peu. J’observe la déviation d’un galvanomètre à l’aide d’un miroir mobile qui projette une image lumineuse ou spot sur une échelle divisée. Le fait brut c’est : je vois le spot se déplacer sur l’échelle, et le fait scientifique c’est : il passe un courant dans le circuit. Ou bien encore : quand je fais une expérience, je dois faire subir au résultat certaines corrections, parce que je sais que j’ai dû commettre des erreurs. Ces erreurs sont de deux sortes, les unes sont accidentelles et je les corrigerai en prenant la moyenne ; les autres sont systématiques et je ne pourrai les corriger que par une étude approfondie de leurs causes. Le premier résultat obtenu est alors le fait brut, tandis que le fait scientifique c’est le résultat final après les corrections terminées. En réfléchissant à ce dernier exemple, nous sommes conduits à subdiviser notre second échelon, et au lieu de dire : 2. L’éclipse a eu lieu à neuf heures, nous dirons : 2 a. L’éclipse a eu lieu quand mon horloge marquait neuf heures, et 2 b. Ma pendule retardant de dix minutes, l’éclipse a eu lieu à neuf heures dix. Et ce n’est pas tout : le premier échelon aussi doit être subdivisé, et ce n’est pas entre ces deux subdivisions que la distance sera la moins grande ; entre l’impression d’obscurité que ressent le témoin d’une éclipse, et l’affirmation ; il fait noir, que cette impression lui arrache, il est nécessaire de distinguer. En un sens c’est la première qui est le seul vrai fait brut, et la seconde est déjà une sorte de fait scientifique. Voilà donc maintenant notre échelle qui a six échelons, et bien qu’il n’y ait aucune raison pour s’arrêter à ce chiffre, nous nous y tiendrons. Ce qui me frappe d’abord c’est ceci. Au premier de nos six échelons, le fait, encore complètement brut, est pour ainsi dire individuel, il est complètement distinct de tous les autres faits possibles. Dès le second échelon, il n’en est déjà plus de même. L’énoncé du fait pourrait convenir à une infinité d’autres faits. Aussitôt qu’intervient le langage, je ne dispose plus que d’un nombre fini de termes pour exprimer les nuances en nombre infini que mes impressions pourraient revêtir. Quand je dis : il fait noir, cela exprime bien les impressions que j’éprouve en assistant à une éclipse ; mais dans l’obscurité même, on pourrait imaginer une foule de nuances, et si au lieu de celle qui s’est réalisée effectivement, c’eût été une nuance peu différente qui se fût produite, j’aurais cependant encore énoncé cet autre fait en disant : il fait noir. Seconde remarque : même au second échelon, l’énoncé d’un fait ne peut être que vrai ou faux. Il n’en serait pas de même pour une proposition quelconque ; si cette proposition est l’énoncé d’une convention, on ne peut pas dire que cet énoncé soit vrai, au sens propre du mot, puisqu’il ne saurait être vrai malgré moi et qu’il est vrai seulement parce je veux qu’il le soit. Quand je dis, par exemple, l’unité de longueur est le mètre, c’est un décret que je porte, ce n’est pas une constatation qui s’impose à moi. Il en est de même, comme je crois l’avoir montré ailleurs, quand il s’agit par exemple du postulatum d’Euclide. Quand on me demande : fait-il noir ? je sais toujours si je dois répondre oui ou non. Bien qu’une infinité de faits possibles soient susceptibles de ce même énoncé : il fait noir, je saurai toujours si le fait réalisé rentre ou ne rentre pas parmi ceux qui répondent à cet énoncé. Les faits sont classés en catégories, et si l’on me demande si le fait que je constate rentre ou ne rentre pas dans telle catégorie, je n’hésiterai pas. Sans doute cette classification comporte assez d’arbitraire pour laisser à la liberté ou au caprice de l’homme une large part. En un mot, cette classification est une convention. Cette convention étant donnée, si l’on me demande : tel fait est-il vrai ? je saurai toujours que répondre, et ma réponse me sera imposée par le témoignage de mes sens. Si donc pendant une éclipse, on demande : fait-il noir ? tout le monde répondra oui. Sans doute ceux-là répondraient non qui parleraient une langue où clair se dirait noir et où noir se dirait clair. Mais quelle importance cela peut-il avoir ? De même, en mathématiques, quand j’ai posé les définitions, et les postulats qui sont des conventions, un théorème ne peut plus être que vrai ou faux. Mais pour répondre à cette question : ce théorème est-il vrai ? ce n’est plus au témoignage de mes sens que j’aurai recours, mais bien au raisonnement. L’énoncé d’un fait est toujours vérifiable et pour la vérification nous avons recours soit au témoignage de nos sens, soit au souvenir de ce témoignage. C’est là proprement ce qui caractérise un fait. Si vous me posez la question : tel fait est-il vrai ? je commencerai par vous demander, s’il y a lieu, de préciser les conventions, par vous demander, en d’autres termes, quelle langue vous avez parlé ; puis une fois fixé sur ce point, j’interrogerai mes sens et je répondrai, oui ou non. Mais la réponse, ce seront mes sens qui l’auront faite, ce ne sera pas vous en me disant : c’est en anglais ou c’est en français que je vous ai parlé. Y a-t-il quelque chose à changer à tout cela quand nous passons aux échelons suivants ? Quand j’observe un galvanomètre, ainsi que je le disais tout à l’heure, si je demande à un visiteur ignorant : le courant passe-t-il ? il va regarder le fil pour tâcher d’y voir passer quelque chose ; mais si je pose la même question à mon aide qui comprend ma langue, il saura que cela veut dire : le spot se déplace-t-il ? et il regardera sur l’échelle. Quelle différence y a-t-il alors entre l’énoncé d’un fait brut et l’énoncé d’un fait scientifique ? il y a la même différence qu’entre l’énoncé d’un même fait brut dans la langue française et dans la langue allemande. L’énoncé scientifique est la traduction de l’énoncé brut dans un langage qui se distingue surtout de l’allemand vulgaire ou du français vulgaire parce qu’il est parlé par un bien moins grand nombre de personnes. N’allons pas trop vite cependant. Pour mesurer un courant, je puis me servir d’un très grand nombre de types de galvanomètres ou encore d’un électrodynamomètre. Et alors quand je dirai : il règne dans ce circuit un courant de tant d’ampères, cela voudra dire : si j’adapte à ce circuit tel galvanomètre je verrai le spot venir à la division a ; mais cela voudra dire également : si j’adapte à ce circuit tel électrodynamomètre, je verrai le spot venir à la division b. Et cela voudra dire encore beaucoup d’autres choses, car le courant peut se manifester non seulement par des effets mécaniques, mais par des effets chimiques, thermiques, lumineux, etc. Voilà donc un même énoncé qui convient à un très grand nombre de faits absolument différents. Pourquoi ? C’est parce que j’admets une loi d’après laquelle toutes les fois que tel effet mécanique se produira, tel effet chimique se produira de son côté. Des expériences antérieures très nombreuses ne m’ont jamais montré cette loi en défaut et alors je me suis rendu compte que je pourrais exprimer par le même énoncé deux faits aussi invariablement liés l’un à l’autre. Quand on me demandera : le courant passe-t-il ? je pourrai comprendre que cela veut dire : tel effet mécanique va-t-il se produire ? mais je pourrai comprendre aussi : tel effet chimique va-t-il se produire ? Je vérifierai donc soit l’existence de l’effet mécanique, soit celle de l’effet chimique, cela sera indifférent, puisque dans un cas comme dans l’autre la réponse doit être la même. Et si la loi venait un jour à être reconnue fausse ? Si on s’apercevait que la concordance des deux effets mécanique et chimique n’est pas constante ? Ce jour-là, il faudrait changer le langage scientifique pour en faire disparaître une grave ambiguïté. Et puis après ? Croit-on que le langage ordinaire, à l’aide duquel on exprime les faits de la vie quotidienne, soit exempt d’ambiguïté ? En conclura-t-on que les faits de la vie quotidienne sont l’œuvre des grammairiens ? Vous me demandez : y a-t-il un courant ? je cherche si l’effet mécanique existe, je le constate et je réponds : oui, il y a un courant. Vous comprenez à la fois que cela veut dire que l’effet mécanique existe, et que l’effet chimique, que je n’ai pas recherché, existe également. Imaginons maintenant que, par impossible, la loi que nous croyions vraie, ne le soit pas et que l’effet chimique n’ait pas existé dans ce cas. Dans cette hypothèse il y aura deux faits distincts, l’un directement observé et qui est vrai, l’autre inféré et qui est faux. On pourra dire à la rigueur que le second, c’est nous qui l’aurons créé. De sorte que la part de collaboration personnelle de l’homme dans la création du fait scientifique, c’est l’erreur. Mais si nous pouvons dire que le fait en question est faux, n’est-ce pas justement parce qu’il n’est pas une création libre et arbitraire de notre esprit, une convention déguisée, auquel cas il ne serait ni vrai ni faux ? Et en effet il était vérifiable, je n’avais pas fait la vérification, mais j’aurais pu la faire. Si j’ai fait une fausse réponse, c’est parce que j’ai voulu répondre trop vite, sans avoir interrogé la nature qui seule savait le secret. Quand, après une expérience, je corrige les erreurs accidentelles et systématiques pour dégager le fait scientifique, c’est encore la même chose ; le fait scientifique ne sera jamais que le fait brut traduit dans un autre langage. Quand je dirai : il est telle heure, cela sera une manière abrégée de dire : il y a telle relation entre l’heure que marque ma pendule, et l’heure qu’elle marquait au moment du passage de tel astre et de tel autre astre au méridien. Et une fois cette convention de langage adoptée par tous, quand on me demandera : est-il telle heure ? il ne dépendra pas de moi de répondre oui ou non. Passons à l’avant-dernier échelon : l’éclipse a lieu à l’heure donnée par les tables déduites des lois de Newton. C’est encore une convention de langage qui est parfaitement claire pour ceux qui connaissent la Mécanique Céleste ou simplement pour ceux qui possèdent les tables calculées par les Astronomes. On me demande : l’éclipse a-t-elle lieu à l’heure prédite ? Je cherche dans la Connaissance des Temps, je vois que l’éclipse était annoncée pour neuf heures et je comprends que la question voulait dire : l’éclipse a-t-elle eu lieu à neuf heures ? Là encore nous n’avons rien à changer à nos conclusions. Le fait scientifique n’est que le fait brut traduit dans un langage commode. Il est vrai qu’au dernier échelon les choses changent. La terre tourne-t- elle ? Est-ce là un fait vérifiable ? Galilée et le Grand-Inquisiteur pouvaient- ils, pour se mettre d’accord, en appeler au témoignage de leurs sens ? Au contraire, ils étaient d’accord sur les apparences, et quelles qu’eussent été les expériences accumulées, ils seraient restés d’accord sur les apparences sans s’accorder jamais sur leur interprétation. C’est même pour cela qu’ils ont été obligés d’avoir recours à des procédés de discussion aussi peu scientifiques. C’est pourquoi j’estime qu’ils n’étaient pas en désaccord sur un fait ; nous n’avons pas le droit de donner le même nom à la rotation de la Terre, qui était l’objet de leur discussion, et aux faits bruts ou scientifiques que nous avons passés en revue jusqu’ici. Après ce qui précède, il semble superflu de rechercher si le fait brut est en dehors de la science, car il ne peut pas y avoir, ni science sans fait scientifique, ni fait scientifique sans fait brut, puisque le premier n’est que la traduction du second. Et alors a-t-on le droit de dire que le savant crée le fait scientifique ? Tout d’abord il ne le crée pas ex nihilo puisqu’il le fait avec le fait brut. Par conséquent il ne le fait pas librement et comme il veut. Quelque habile que soit l’ouvrier, sa liberté est toujours limitée par les propriétés de la matière première sur laquelle il opère. Que voulez-vous dire après tout quand vous parlez de cette création libre du fait scientifique et quand vous prenez pour exemple l’astronome qui intervient activement dans le phénomène de l’éclipse en apportant son horloge ? Voulez-vous dire : l’éclipse a eu lieu à neuf heures ? mais si l’astronome avait voulu qu’elle eût lieu à dix heures, cela ne tenait qu’à lui, il n’avait qu’à avancer son horloge d’une heure. Mais l’astronome, en faisant cette mauvaise plaisanterie, aurait évidemment abusé d’une équivoque. Quand il me dit : l’éclipse a eu lieu à neuf heures, j’entends que neuf heures est l’heure déduite de l’indication brute de la pendule, par la série des corrections d’usage. S’il m’a donné seulement cette indication brute, ou s’il a fait des corrections contraires aux règles habituelles, il a changé sans me prévenir le langage convenu. Si au contraire il a eu soin de me prévenir, je n’ai pas à me plaindre, mais alors c’est toujours le même fait exprimé dans un autre langage. En résumé, tout ce que crée le savant dans un fait, c’est le langage dans lequel il l’énonce. S’il prédit un fait, il emploiera ce langage, et pour tous ceux qui sauront le parler et l’entendre, sa prédiction est exempte d’ambiguïté. D’ailleurs une fois cette prédiction lancée, il ne dépend pas évidemment de lui qu’elle se réalise ou qu’elle ne se réalise pas. Que reste-t-il alors de la thèse de M. Le Roy ? Il reste ceci : le savant intervient activement en choisissant les faits qui méritent d’être observés. Un fait isolé n’a par lui-même aucun intérêt ; il en prend un si l’on a lieu de penser qu’il pourra aider à en prédire d’autres ; ou bien encore si, ayant été prédit, sa vérification est la confirmation d’une loi. Qui choisira les faits qui, répondant à ces conditions, méritent le droit de cité dans la science ? C’est la libre activité du savant. Et ce n’est pas tout. J’ai dit que le fait scientifique est la traduction d’un fait brut dans un certain langage ; j’aurais dû ajouter que tout fait scientifique est formé de plusieurs faits bruts. Les exemples cités plus haut le montrent assez bien. Par exemple pour l’heure de l’éclipse mon horloge marquait l’heure α à l’instant de l’éclipse ; elle marquait l’heure β au moment du dernier passage au méridien d’une certaine étoile que nous prendrons pour origine des ascensions droites ; elle marquait l’heure γ au moment de l’avant-dernier passage de cette même étoile. Voilà trois faits distincts (encore remarquera-t-on que chacun d’eux résulte lui-même de deux faits bruts simultanés ; mais passons sur cette remarque). Au lieu de cela je dis : l’éclipse a eu lieu à l’heure , et les trois faits se trouvent concentrés en un fait scientifique unique. J’ai jugé que les trois lectures α, β, γ faites sur mon horloge à trois moments différents étaient dépourvues d’intérêt et que la seule chose intéressante était la combinaison de ces trois lectures. Dans ce jugement on retrouve la libre activité de mon esprit. Mais j’ai ainsi épuisé ma puissance ; je ne puis pas faire que cette combinaison ait telle valeur et non telle autre, puisque je ne puis influer ni sur la valeur de α, ni sur celle de β, ni sur celle de γ qui me sont imposées comme faits bruts. En résumé les faits sont des faits, et s’il arrive qu’ils sont conformes à une prédiction ce n’est pas par un effet de notre libre activité. Il n’y a pas de frontière précise entre le fait brut et le fait scientifique ; on peut dire seulement que tel énoncé de fait est plus brut ou, au contraire, plus scientifique que tel autre. § 4. — LE « NOMINALISME » ET « L’INVARIANT UNIVERSEL » Si des faits nous passons aux lois, il est clair que la part de la libre activité du savant deviendra beaucoup plus grande. Mais M. Le Roy ne la fait-il pas encore trop grande ? C’est ce que nous allons examiner. Rappelons d’abord les exemples qu’il a donnés. Quand je dis : le phosphore fond à 44°, je crois énoncer une loi ; en réalité c’est la définition même du phosphore ; si l’on venait à découvrir un corps qui, jouissant d’ailleurs de toutes les propriétés du phosphore ne fondrait pas à 44°, on lui donnerait un autre nom, voilà tout, et la loi resterait vraie. De même quand je dis : les corps graves en chute libre parcourent des espaces proportionnels aux carrés des temps, je ne fais que donner la définition de la chute libre. Toutes les fois que la condition ne sera pas remplie, je dirai que la chute n’est pas libre, de sorte que la loi ne pourra jamais être en défaut. Il est clair que si les lois se réduisaient à cela, elles ne pourraient servir à prédire ; elles ne pourraient donc servir à rien, ni comme moyen de connaissance, ni comme principe d’action. Quand je dis : le phosphore fond à 44°, je veux dire par là : tout corps qui jouit de telle ou telle propriété (à savoir de toutes les propriétés du phosphore, sauf le point de fusion) fond à 44°. Entendue ainsi, ma proposition est bien une loi, et cette loi pourra m’être utile, car si je rencontre un corps jouissant de ces propriétés, je pourrai prédire qu’il fondra à 44°. Sans doute, on pourra découvrir que la loi est fausse. On lira alors dans les traités de chimie : « il existe deux corps que les chimistes ont longtemps confondus sous le nom de phosphore ; ces deux corps ne diffèrent que par leur point de fusion ». Ce ne serait évidemment pas la première fois que les chimistes en arriveraient à séparer deux corps qu’ils n’auraient d’abord pas su distinguer ; tels par exemple le néodyme et le praséodyme, longtemps confondus sous le nom de didyme. Je ne crois pas que les chimistes redoutent beaucoup que pareille mésaventure arrive jamais au phosphore. Et si par impossible elle arrivait, les deux corps n’auraient probablement pas identiquement même densité, identiquement même chaleur spécifique, etc., de sorte qu’après avoir déterminé avec soin la densité par exemple, on pourra encore prévoir le point de fusion. Peu importe d’ailleurs ; il suffit de remarquer qu’il y a une loi, et que cette loi, vraie ou fausse, ne se réduit pas à une tautologie. Dira-t-on que, si nous ne connaissons pas sur la Terre un corps qui ne fonde pas à 44° tout en ayant les autres propriétés du phosphore, nous ne pouvons pas savoir s’il n’en existe pas sur d’autres planètes ? Sans doute, cela peut se soutenir, et on conclurait alors que la loi en question, qui peut nous servir de règle d’action à nous qui habitons la Terre, n’a cependant aucune valeur générale au point de vue de la connaissance, et ne doit son intérêt qu’au hasard qui nous a placés sur ce globe. C’est possible, mais s’il en était ainsi, la loi n’aurait pas de valeur, non pas parce qu’elle se réduirait à une convention, mais parce qu’elle serait fausse. De même en ce qui concerne la chute des corps. Il ne me servirait à rien d’avoir donné le nom de chute libre aux chutes qui se produisent conformément à la loi de Galilée, si je ne savais d’autre part que, dans telles circonstances, la chute sera probablement libre ou à peu près libre. Cela alors est une loi qui peut être vraie ou fausse, mais qui ne se réduit plus à une convention. Je suppose que les astronomes viennent de découvrir que les astres n’obéissent pas exactement à la loi de Newton. Ils auront le choix entre deux attitudes ; ils pourront dire que la gravitation ne varie pas exactement comme l’inverse du carré des distances, ou bien ils pourront dire que la gravitation n’est pas la seule force qui agisse sur les astres et qu’il vient s’y ajouter une force de nature différente. Dans ce second cas, on considérera la loi de Newton comme la définition de la gravitation. Ce sera l’attitude nominaliste. Le choix entre les deux attitudes reste libre, et se fait par des considérations de commodité, quoique ces considérations soient le plus souvent tellement puissantes qu’il reste pratiquement peu de chose de cette liberté. Nous pouvons décomposer cette proposition : (1) les astres suivent la loi de Newton, en deux autres : (2) la gravitation suit la loi de Newton, (3) la gravitation est la seule force qui agisse sur les astres. Dans ce cas la proposition (2) n’est plus qu’une définition et échappe au contrôle de l’expérience ; mais alors ce sera sur la proposition (3) que ce contrôle pourra s’exercer. Il le faut bien puisque la proposition résultante (1) prédit des faits bruts vérifiables. C’est grâce à ces artifices que par un nominalisme inconscient, les savants ont élevé au-dessus des lois ce qu’ils appellent des principes. Quand une loi a reçu une confirmation suffisante de l’expérience, nous pouvons adopter deux attitudes, ou bien laisser cette loi dans la mêlée ; elle restera soumise alors à une incessante révision qui sans aucun doute finira par démontrer qu’elle n’est qu’approximative. Ou bien on peut l’ériger en principe, en adoptant des conventions telles que la proposition soit certainement vraie. Pour cela on procède toujours de la même manière. La loi primitive énonçait une relation entre deux faits bruts A et B ; on introduit entre ces deux faits bruts un intermédiaire abstrait C, plus ou moins fictif (tel était dans l’exemple précédent l’entité impalpable de la gravitation). Et alors nous avons une relation entre A et C que nous pouvons supposer rigoureuse et qui est le principe ; et une autre entre C et B qui reste une loi révisable. Le principe, désormais cristallisé pour ainsi dire, n’est plus soumis au contrôle de l’expérience. Il n’est pas vrai ou faux, il est commode. On a trouvé souvent de grands avantages à procéder de la sorte, mais il est clair que si toutes les lois avaient été transformées en principes, il ne serait rien resté de la science. Toute loi peut se décomposer en un principe et une loi, mais il est bien clair par là que, si loin que l’on pousse cette décomposition, il restera toujours des lois. Le nominalisme a donc des bornes et c’est ce qu’on pourrait méconnaître, si on prenait à la lettre les assertions de M. Le Roy. Une revue rapide des sciences nous fera mieux comprendre quelles sont ces bornes. L’attitude nominaliste n’est justifiée que quand elle est commode ; quand l’est-elle ? L’expérience nous fait connaître des relations entre les corps ; c’est là le fait brut ; ces relations sont extrêmement compliquées. Au lieu d’envisager directement la relation du corps A et du corps B, nous introduisons entre eux un intermédiaire qui est l’espace, et nous envisageons trois relations distinctes : celle du corps A avec la figure A′ de l’espace, celle du corps B avec la figure B′ de l’espace, celle des deux figures A′ et B′ entre elles. Pourquoi ce détour est-il avantageux ? Parce que la relation de A et B était compliquée, mais différait peu de celle de A′ et B′ qui est simple : de sorte que cette relation compliquée peut être remplacée par la relation simple entre A′ et B′, et par deux autres relations qui nous font connaître que les différences entre A et A′ d’une part, entre B et B′ d’autre part sont très petites. Par exemple si A et B sont deux corps solides naturels qui se déplacent en se déformant légèrement, nous envisagerons deux figures invariables mobiles A′ et B′. Les lois des déplacements relatifs de ces figures A′ et B′ seront très simples ; ce seront celles de la géométrie. Et nous ajouterons ensuite que le corps A, qui diffère toujours très peu de A′, se dilate par l’effet de la chaleur et fléchit par l’effet de l’élasticité. Ces dilatations et ces flexions, justement parce qu’elles sont très petites, seront pour notre esprit d’une étude relativement facile. S’imagine-t-on à quelles complications de langage il aurait fallu se résigner si on avait voulu comprendre dans un même énoncé le déplacement du solide, sa dilatation et sa flexion ? La relation entre A et B était une loi brute, et elle s’est décomposée ; nous avons maintenant deux lois qui expriment les relations de A et A′ ; de B et B′ et un principe qui exprime celle de A′ avec B′. C’est l’ensemble de ces principes que l’on appelle géométrie. Deux remarques encore. Nous avons une relation entre deux corps A et B que nous avons remplacée par une relation entre deux figures A′ et B′ ; mais cette même relation entre les deux mêmes figures A′ et B′ aurait pu tout aussi bien remplacer avantageusement une relation entre deux autres corps A′′ et B′′, entièrement différents de A et B. Et cela de bien des manières. Si l’on n’avait pas inventé les principes et la géométrie, après avoir étudié la relation de A et B, il faudrait recommencer ab ovo l’étude de la relation de A′′ à B′′. C’est pour cela que la géométrie est si précieuse. Une relation géométrique peut remplacer avantageusement une relation qui, considérée à l’état brut, devrait être regardée comme mécanique, elle peut en remplacer une autre qui devrait être regardée comme optique, etc. Et alors qu’on ne vienne pas dire : mais c’est la preuve que la géométrie est une science expérimentale ; en séparant ses principes de lois d’où on les a extraits, vous la séparez artificiellement elle-même des sciences qui lui ont donné naissance. Les autres sciences ont également des principes et cela n’empêche pas qu’on doive les appeler expérimentales. Il faut reconnaître qu’il aurait été difficile de ne pas faire cette séparation que l’on prétend artificielle. On sait le rôle qu’a joué la cinématique des corps solides dans la genèse de la géométrie ; devrait-on dire alors que la géométrie n’est qu’une branche de la cinématique expérimentale ? Mais les lois de la propagation rectiligne de la lumière ont contribué aussi à la formation de ses principes. Faudra-t-il que la géométrie soit regardée à la fois comme une branche de la cinématique et comme une branche de l’optique ? Je rappelle en outre que notre espace euclidien qui est l’objet propre de la géométrie a été choisi, pour des raisons de commodité, parmi un certain nombre de types qui préexistent dans notre esprit et qu’on appelle groupes. Si nous passons à la Mécanique, nous voyons encore de grands principes dont l’origine est analogue, et comme leur « rayon d’action » pour ainsi dire est moins grand, on n’a plus de raison de les séparer de la Mécanique proprement dite et de regarder cette science comme déductive. En Physique enfin, le rôle des principes est encore amoindri. Et en effet on ne les introduit que quand on y a avantage. Or ils ne sont avantageux justement que parce qu’ils sont peu nombreux, parce que chacun d’eux remplace à peu près un grand nombre de lois. On n’a donc pas intérêt à les multiplier. D’ailleurs il faut aboutir, et pour cela il faut bien finir par quitter l’abstraction pour prendre le contact de la réalité. Voilà les bornes du nominalisme, et elles sont étroites. M. Le Roy a insisté pourtant, et il a posé la question sous une autre forme. Puisque l’énoncé de nos lois peut varier avec les conventions que nous adoptons, que ces conventions peuvent modifier même les relations naturelles de ces lois, y a-t-il dans l’ensemble de ces lois quelque chose qui soit indépendant de ces conventions et qui puisse pour ainsi dire jouer le rôle d’invariant universel ? On a par exemple introduit la fiction d’êtres qui, ayant fait leur éducation dans un monde différent du nôtre, auraient été amenés à créer une géométrie non-euclidienne. Si ces êtres étaient ensuite brusquement transportés dans notre monde à nous, ils observeraient les mêmes lois que nous, mais ils les énonceraient d’une manière toute différente. À la vérité, il y aurait encore quelque chose de commun entre les deux énoncés, mais c’est parce que ces êtres ne diffèrent pas encore assez de nous. On peut imaginer des êtres plus étranges encore, et la partie commune entre les deux systèmes d’énoncés se rétrécira de plus en plus. Se rétrécira-t-elle ainsi en tendant vers zéro, ou bien restera-t-il un résidu irréductible qui serait alors l’invariant universel cherché ? La question demande à être précisée. Veut-on que cette partie commune des énoncés soit exprimable par des mots ? Il est clair alors qu’il n’y a pas de mots communs à toutes les langues, et nous ne pouvons avoir la prétention de construire je ne sais quel invariant universel qui serait compris à la fois par nous, et par les géomètres fictifs non-euclidiens dont je viens de parler ; pas plus que nous ne pouvons construire une phrase qui soit comprise à la fois des Allemands qui ne savent pas le français et des Français qui ne savent pas l’allemand. Mais nous avons des règles fixes qui nous permettent de traduire les énoncés français en allemand, et inversement. C’est pour cela qu’on a fait des grammaires et des dictionnaires. Il y a aussi des règles fixes pour traduire le langage euclidien dans le langage non-euclidien, ou s’il n’y en a pas, on pourrait en faire. Et si même, il n’y avait ni interprète, ni dictionnaire, si les Allemands et les Français, après avoir vécu des siècles dans des mondes séparés, se trouvaient tout à coup en contact, croit-on qu’il n’y aurait rien de commun entre la science des livres allemands, et celle des livres français ? Les Français et les Allemands finiraient certainement par s’entendre, comme les Indiens d’Amérique ont fini par comprendre la langue de leurs vainqueurs après l’arrivée des Espagnols. Mais, dira-t-on, sans doute, les Français seraient capables de comprendre les Allemands même sans avoir appris l’allemand, mais c’est parce qu’il reste entre les Français et les Allemands quelque chose de commun, puisque les uns et les autres sont des hommes. On arriverait encore à s’entendre avec nos non-euclidiens hypothétiques, bien qu’ils ne soient plus des hommes, parce qu’ils conserveraient encore quelque chose d’humain. Mais en tout cas un minimum d’humanité est nécessaire. C’est possible, mais j’observerai d’abord que ce peu d’humanité qui resterait chez les non-euclidiens, suffirait non seulement pour qu’on pût traduire un peu de leur langage, mais pour qu’on pût traduire tout leur langage. Maintenant, qu’il faille un minimum, c’est ce que je concède ; je suppose qu’il existe je ne sais quel fluide qui pénètre entre les molécules de notre matière à nous, sans avoir aucune action sur elle ni sans subir aucune action qui en vienne. Je suppose que des êtres soient sensibles à l’influence de ce fluide et insensibles à celle de notre matière. Il est clair que la science de ces êtres différerait absolument de la nôtre et qu’il serait superflu de chercher un « invariant » commun à ces deux sciences. Ou bien encore, si ces êtres rejetaient notre logique et n’admettaient pas, par exemple, le principe de contradiction. Mais vraiment je crois qu’il est sans intérêt d’examiner de semblables hypothèses. Et alors, si nous ne poussons pas si loin la bizarrerie, si nous n’introduisons que des êtres fictifs ayant des sens analogues aux nôtres et sensibles aux mêmes impressions, et d’autre part admettant les principes de notre logique, nous pourrons conclure alors que leur langage, quelque différent du nôtre qu’il puisse être, serait toujours susceptible d’être traduit. Or la possibilité de la traduction implique l’existence d’un invariant. Traduire, c’est précisément dégager cet invariant. Ainsi, déchiffrer un document cryptographique, c’est chercher ce qui dans ce document demeure invariant, quand on en permute les lettres. Quelle est maintenant la nature de cet invariant, il est aisé de s’en rendre compte, et un mot nous suffira. Les lois invariantes ce sont les relations entre les faits bruts, tandis que les relations entre les « faits scientifiques » restaient toujours dépendantes de certaines conventions.     CHAPITRE XI La Science et la Réalité § 5. — CONTINGENCE ET DÉTERMINISME Je n’ai pas l’intention de traiter ici la question de la contingence des lois de la nature, qui est évidemment insoluble, et sur laquelle on a déjà tant écrit. Je voudrais seulement faire remarquer que de sens différents on a donné à ce mot de contingence et combien il serait utile de les distinguer. Si nous envisageons une loi particulière quelconque, nous pouvons être certains d’avance qu’elle ne peut être qu’approximative. Elle est, en effet, déduite de vérifications expérimentales et ces vérifications n’étaient et ne pouvaient être qu’approchées. On doit toujours s’attendre à ce que des mesures plus précises nous obligent à ajouter de nouveaux termes à nos formules ; c’est ce qui est arrivé par exemple pour la loi de Mariotte. De plus l’énoncé d’une loi quelconque est forcément incomplet. Cet énoncé devrait comprendre l’énumération de tous les antécédents en vertu desquels un conséquent donné pourra se produire. Je devrais d’abord décrire toutes les conditions de l’expérience à faire et la loi s’énoncerait alors : si toutes les conditions sont remplies tel phénomène aura lieu. Mais on ne sera sûr de n’avoir oublié aucune de ces conditions, que quand on aura décrit l’état de l’univers tout entier à l’instant t ; toutes les parties de cet univers peuvent en effet exercer une influence plus ou moins grande sur le phénomène qui doit se produire à l’instant t + dt. Or il est clair qu’une pareille description ne saurait se trouver dans l’énoncé de la loi ; si on la faisait d’ailleurs, la loi deviendrait inapplicable ; si on exigeait à la fois tant de conditions, il y aurait bien peu de chance pour qu’à aucun moment elles fussent jamais toutes réalisées. Alors comme on ne sera jamais certain de n’avoir pas oublié quelque condition essentielle, on ne pourra pas dire : si telles et telles conditions sont réalisées, tel phénomène se produira ; on pourra dire seulement : si telles et telles conditions sont réalisées, il est probable que tel phénomène se produira à peu près. Prenons la loi de la gravitation qui est la moins imparfaite de toutes les lois connues. Elle nous permet de prévoir les mouvements des planètes. Quand je m’en sers par exemple pour calculer l’orbite de Saturne, je néglige l’action des étoiles, et en agissant ainsi, je suis certain de ne pas me tromper, car je sais que ces étoiles sont trop éloignées pour que leur action soit sensible. J’annonce alors avec une quasi-certitude que les coordonnées de Saturne à telle heure seront comprises entre telles et telles limites. Cette certitude cependant est-elle absolue ? Ne pourrait-il exister dans l’univers quelque masse gigantesque, beaucoup plus grande que celle de tous les astres connus et dont l’action pourrait se faire sentir à de grandes distances ? Cette masse serait animée d’une vitesse colossale et après avoir circulé de tout temps à de telles distances que son influence soit restée jusqu’ici insensible pour nous, elle viendrait tout à coup passer près de nous. À coup sûr, elle produirait dans notre système solaire des perturbations énormes que nous n’aurions pu prévoir. Tout ce qu’on peut dire c’est qu’une pareille éventualité est tout à fait invraisemblable, et alors, au lieu de dire : Saturne sera près de tel point du ciel, nous devrons nous borner à dire : Saturne sera probablement près de tel point du ciel. Bien que cette probabilité soit pratiquement équivalente à la certitude, ce n’est qu’une probabilité. Pour toutes ces raisons, aucune loi particulière ne sera jamais qu’approchée et probable. Les savants n’ont jamais méconnu cette vérité ; seulement ils croient, à tort ou à raison, que toute loi pourra être remplacée par une autre plus approchée et plus probable, que cette loi nouvelle ne sera elle-même que provisoire, mais que le même mouvement pourra continuer indéfiniment, de sorte que la science en progressant possédera des lois de plus en plus probables, que l’approximation finira par différer aussi peu que l’on veut de l’exactitude et la probabilité de la certitude. Si les savants qui pensent ainsi avaient raison, devrait-on dire encore que les lois de la nature sont contingentes, bien que chaque loi, prise en particulier, puisse être qualifiée de contingente ? Ou bien devra-t-on exiger, avant de conclure à la contingence des lois naturelles, que ce progrès ait un terme, que le savant finisse un jour par être arrêté dans sa recherche d’une approximation de plus en plus grande et qu’au-delà d’une certaine limite, il ne rencontre plus dans la Nature que le caprice ? Dans la conception dont je viens de parler (et que j’appellerai la conception scientifique), toute loi n’est qu’un énoncé imparfait et provisoire, mais elle doit être remplacée un jour par une autre loi supérieure, dont elle n’est qu’une image grossière. Il ne reste donc pas de place pour l’intervention d’une volonté libre. Il me semble que la théorie cinétique des gaz va nous fournir un exemple frappant. On sait que dans cette théorie, on explique toutes les propriétés des gaz par une hypothèse simple ; on suppose que toutes les molécules gazeuses se meuvent en tous sens avec de grandes vitesses et qu’elles suivent des trajectoires rectilignes qui ne sont troublées que quand une molécule passe très près des parois du vase ou d’une autre molécule. Les effets que nos sens grossiers nous permettent d’observer sont les effets moyens, et dans ces moyennes, les grands écarts se compensent, ou tout au moins il est très improbable qu’ils ne se compensent pas ; de sorte que les phénomènes observables suivent des lois simples, telles que celle de Mariotte ou de Gay- Lussac. Mais cette compensation des écarts n’est que probable. Les molécules changent incessamment de place et dans ces déplacements continuels, les figures qu’elles forment passent successivement par toutes les combinaisons possibles. Seulement ces combinaisons sont très nombreuses, presque toutes sont conformes à la loi de Mariotte, quelques- unes seulement s’en écartent. Celles-là aussi se réaliseront, seulement il faudrait les attendre longtemps ; si l’on observait un gaz pendant un temps assez long, on finirait certainement par le voir s’écarter, pendant un temps très court, de la loi de Mariotte. Combien de temps faudrait-il attendre ? Si on voulait calculer le nombre d’années probable, on trouverait que ce nombre est tellement grand que pour écrire seulement le nombre de ses chiffres, il faudrait encore une dizaine de chiffres. Peu importe, il nous suffit qu’il soit fini. Je ne veux pas discuter ici la valeur de cette théorie. Il est clair que si on l’adopte, la loi de Mariotte ne nous apparaîtra plus que comme contingente, puisqu’il viendra un jour où elle ne sera plus vraie. Et pourtant croit-on que les partisans de la théorie cinétique soient des adversaires du déterminisme ? Loin de là, ce sont les plus intransigeants des mécanistes. Leurs molécules suivent des trajectoires rigides, dont elles ne s’écartent que sous l’influence de forces qui varient avec la distance suivant une loi parfaitement déterminée. Il ne reste pas dans leur système la plus petite place, ni pour la liberté, ni pour un facteur évolutif proprement dit, ni pour n’importe quoi qu’on puisse appeler contingence. J’ajoute, pour éviter une confusion, qu’il n’y a pas là non plus une évolution de la loi de Mariotte elle-même ; elle cesse d’être vraie, après je ne sais combien de siècles ; mais au bout d’une fraction de seconde, elle redevient vraie et cela pour un nombre incalculable de siècles. Et puisque j’ai prononcé ce mot d’évolution, dissipons encore un malentendu. On dit souvent : qui sait si les lois n’évoluent pas et si on ne découvrira pas un jour qu’elles n’étaient pas à l’époque carbonifère ce qu’elles sont aujourd’hui ? Qu’entend-on par là ? Ce que nous croyons savoir de l’état passé de notre globe, nous le déduisons de son état présent. Et comment se fait cette déduction, c’est par le moyen des lois supposées connues. La loi étant une relation entre l’antécédent et le conséquent, nous permet également bien de déduire le conséquent de l’antécédent, c’est-à- dire de prévoir l’avenir et de déduire l’antécédent du conséquent, c’est-à- dire de conclure du présent au passé. L’astronome qui connaît la situation actuelle des astres, peut en déduire leur situation future par la loi de Newton, et c’est ce qu’il fait quand il construit des éphémérides ; et il peut également en déduire leur situation passée. Les calculs qu’il pourra faire ainsi ne pourront pas lui enseigner que la loi de Newton cessera d’être vraie dans l’avenir, puisque cette loi est précisément son point de départ ; ils ne pourront pas davantage lui apprendre qu’elle n’était pas vraie dans le passé. Encore en ce qui concerne l’avenir, ses éphémérides pourront être un jour contrôlées et nos descendants reconnaîtront peut-être qu’elles étaient fausses. Mais en ce qui concerne le passé, le passé géologique qui n’a pas eu de témoins, les résultats de son calcul, comme ceux de toutes les spéculations où nous cherchons à déduire le passé du présent, échappent par leur nature même à toute espèce de contrôle. De sorte que si les lois de la nature n’étaient pas les mêmes à l’âge carbonifère qu’à l’époque actuelle, nous ne pourrons jamais le savoir, puisque nous ne pouvons rien savoir de cet âge que ce que nous déduisons de l’hypothèse de la permanence de ces lois. On dira peut-être que cette hypothèse pourrait conduire à des résultats contradictoires et qu’on sera obligé de l’abandonner. Ainsi, en ce qui concerne l’origine de la vie, on peut conclure qu’il y a toujours eu des êtres vivants, puisque le monde actuel nous montre toujours la vie sortant de la vie ; et on peut conclure aussi qu’il n’y en a pas toujours eu, puisque l’application des lois actuelles de la physique à l’état présent de notre globe nous enseigne qu’il y a eu un temps où ce globe était tellement chaud que la vie y était impossible. Mais les contradictions de ce genre peuvent toujours se lever de deux manières : on peut supposer que les lois actuelles de la nature ne sont pas exactement celles que nous avons admises ; ou bien on peut supposer que les lois de la nature sont actuellement celles que nous avons admises, mais qu’il n’en a pas toujours été ainsi. Il est clair que les lois actuelles ne seront jamais assez bien connues pour qu’on ne puisse adopter la première de ces deux solutions et qu’on soit contraint de conclure à l’évolution des lois naturelles. D’autre part supposons une pareille évolution ; admettons, si l’on veut, que l’humanité dure assez pour que cette évolution puisse avoir des témoins. Le même antécédent produira par exemple des conséquents différents à l’époque carbonifère et à l’époque quaternaire. Cela veut dire évidemment que les antécédents sont à peu près pareils ; si toutes les circonstances étaient identiques, l’époque carbonifère deviendrait indiscernable de l’époque quaternaire. Évidemment ce n’est pas là ce que l’on suppose. Ce qui reste, c’est que tel antécédent, accompagné de telle circonstance accessoire, produit tel conséquent ; et que le même antécédent, accompagné de telle autre circonstance accessoire, produit tel autre conséquent. Le temps ne fait rien à l’affaire. La loi, telle que la science mal informée l’aurait énoncée, et qui aurait affirmé que cet antécédent produit toujours ce conséquent, sans tenir compte des circonstances accessoires ; cette loi, dis-je, qui n’était qu’approchée et probable, doit être remplacée par une autre loi plus approchée et plus probable qui fait intervenir ces circonstances accessoires. Nous retombons donc toujours sur ce même processus que nous avons analysé plus haut, et si l’humanité venait à découvrir quelque chose dans ce genre, elle ne dirait pas que ce sont les lois qui ont évolué, mais les circonstances qui se sont modifiées. Voilà donc bien des sens différents du mot contingence. M. Le Roy les retient tous et il ne les distingue pas suffisamment, mais il en introduit un nouveau. Les lois expérimentales ne sont qu’approchées, et si quelques- unes nous apparaissent comme exactes, c’est que nous les avons artificiellement transformées en ce que j’ai appelé plus haut un principe. Cette transformation, nous l’avons faite librement, et comme le caprice qui nous a déterminés à la faire est quelque chose d’éminemment contingent, nous avons communiqué cette contingence à la loi elle-même. C’est en ce sens que nous avons le droit de dire que le déterminisme suppose la liberté, puisque c’est librement que nous devenons déterministes. Peut-être trouvera-t-on que c’est là faire la part bien large au nominalisme et que l’introduction de ce sens nouveau du mot contingence n’aidera pas beaucoup à résoudre toutes ces questions qui se posent naturellement et dont nous venons de dire quelques mots. Je ne veux nullement rechercher ici les fondements du principe d’induction ; je sais fort bien que je n’y réussirai pas ; il est aussi difficile de justifier ce principe que de s’en passer. Je veux seulement montrer comme les savants l’appliquent et sont forcés de l’appliquer. Quand le même antécédent se reproduit, le même conséquent doit se reproduire également ; tel est l’énoncé ordinaire. Mais réduit à ces termes ce principe ne pourrait servir à rien. Pour qu’on pût dire que le même antécédent s’est reproduit, il faudrait que les circonstances se fussent toutes reproduites, puisqu’aucune n’est absolument indifférente, et qu’elles se fussent exactement reproduites. Et, comme cela n’arrivera jamais, le principe ne pourra recevoir aucune application. Nous devons donc modifier l’énoncé et dire : si un antécédent A a produit une fois un conséquent B, un antécédent A′ peu différent de A, produira un conséquent B′ peu différent de B. Mais comment reconnaîtrons- nous que les antécédents A et A′ sont « peu différents » ? Si quelqu’une des circonstances peut s’exprimer par un nombre, et que ce nombre ait dans les deux cas des valeurs très voisines, le sens du mot « peu différent » est relativement clair ; le principe signifie alors que le conséquent est une fonction continue de l’antécédent. Et comme règle pratique, nous arrivons à cette conclusion que l’on a le droit d’interpoler. C’est en effet ce que les savants font tous les jours et sans l’interpolation toute science serait impossible. Observons toutefois une chose. La loi cherchée peut se représenter par une courbe. L’expérience nous a fait connaître certains points de cette courbe. En vertu du principe que nous venons d’énoncer nous croyons que ces points peuvent être reliés par un trait continu. Nous traçons ce trait à l’œil. De nouvelles expériences nous fourniront de nouveaux points de la courbe. Si ces points sont en dehors du trait tracé d’avance, nous aurons à modifier notre courbe, mais non pas à abandonner notre principe. Par des points quelconques, si nombreux qu’ils soient, on peut toujours faire passer une courbe continue. Sans doute, si cette courbe est trop capricieuse, nous serons choqués (et même nous soupçonnerons des erreurs d’expérience), mais le principe ne sera pas directement mis en défaut. De plus, parmi les circonstances d’un phénomène, il y en a que nous regardons comme négligeables, et nous considérerons A et A′ comme peu différents, s’ils ne diffèrent que par ces circonstances accessoires. Par exemple, j’ai constaté que l’hydrogène s’unissait à l’oxygène sous l’influence de l’étincelle, et je suis certain que ces deux gaz s’uniront de nouveau, bien que la longitude de Jupiter ait changé considérablement dans l’intervalle. Nous admettons par exemple que l’état des corps éloignés ne peut avoir d’influence sensible sur les phénomènes terrestres, et cela en effet semble s’imposer, mais il est des cas où le choix de ces circonstances pratiquement indifférentes comporte plus d’arbitraire ou, si l’on veut, exige plus de flair. Une remarque encore : le principe d’induction serait inapplicable, s’il n’existait dans la nature une grande quantité de corps semblables entre eux, ou à peu près semblables, et si l’on ne pouvait conclure par exemple d’un morceau de phosphore à un autre morceau de phosphore. Si nous réfléchissons à ces considérations, le problème du déterminisme et de la contingence nous apparaîtra sous un jour nouveau. Supposons que nous puissions embrasser la série de tous les phénomènes de l’univers dans toute la suite des temps. Nous pourrions envisager ce que l’on pourrait appeler les séquences, je veux dire des relations entre antécédent et conséquent. Je ne veux pas parler de relations constantes ou de lois, j’envisage séparément (individuellement pour ainsi dire) les diverses séquences réalisées. Nous reconnaîtrions alors que parmi ces séquences il n’y en a pas deux qui soient tout à fait pareilles. Mais, si le principe d’induction tel que nous venons de l’énoncer est vrai, il y en aura qui seront à peu près pareilles et qu’on pourra classer les unes à côté des autres. En d’autres termes, il est possible de faire une classification des séquences. C’est à la possibilité et à la légitimité d’une pareille classification que se réduit en fin de compte le déterminisme. C’est tout ce que l’analyse précédente en laisse subsister. Peut-être sous cette forme modeste semblera- t-il moins effrayant au moraliste. On dira sans doute que c’est revenir par un détour à la conclusion de M. le Roy que tout à l’heure nous semblions rejeter : c’est librement qu’on est déterministe. Et en effet toute classification suppose l’intervention active du classificateur. J’en conviens, cela peut se soutenir, mais il me semble que ce détour n’aura pas été inutile et aura contribué à nous éclairer un peu. § 6. — OBJECTIVITÉ DE LA SCIENCE J’arrive à la question posée par le titre de cet article : Quelle est la valeur objective de la science ? Et d’abord que devons-nous entendre par objectivité ? Ce qui nous garantit l’objectivité du monde dans lequel nous vivons, c’est que ce monde nous est commun avec d’autres êtres pensants. Par les communications que nous avons avec les autres hommes, nous recevons d’eux des raisonnements tout faits ; nous savons que ces raisonnements ne viennent pas de nous et en même temps nous y reconnaissons l’œuvre d’êtres raisonnables comme nous. Et comme ces raisonnements paraissent s’appliquer au monde de nos sensations, nous croyons pouvoir conclure que ces êtres raisonnables ont vu la même chose que nous ; c’est comme cela que nous savons que nous n’avons pas fait un rêve. Telle est donc la première condition de l’objectivité : ce qui est objectif doit être commun à plusieurs esprits, et par conséquent pouvoir être transmis de l’un à l’autre, et comme cette transmission ne peut se faire que par ce « discours » qui inspire tant de défiance à M. le Roy, nous sommes bien forcés de conclure : Pas de discours, pas d’objectivité. Les sensations d’autrui seront pour nous un monde éternellement fermé. La sensation que j’appelle rouge est-elle la même que celle que mon voisin appelle rouge, nous n’avons aucun moyen de le vérifier. Supposons qu’une cerise et un coquelicot produisent sur moi la sensation A et sur lui la sensation B et qu’au contraire une feuille produise sur moi la sensation B et sur lui la sensation A. Il est clair que nous n’en saurons jamais rien ; puisque j’appellerai rouge la sensation A et vert la sensation B, tandis que lui appellera la première vert et la seconde rouge. En revanche ce que nous pourrons constater c’est que, pour lui comme pour moi, la cerise et le coquelicot produisent la même sensation, puisqu’il donne le même nom aux sensations qu’il éprouve et que je fais de même. Les sensations sont donc intransmissibles, ou plutôt tout ce qui est qualité pure en elles est intransmissible et à jamais impénétrable. Mais il n’en est pas de même des relations entre ces sensations. À ce point de vue, tout ce qui est objectif est dépourvu de toute qualité et n’est que relation pure. Je n’irai certes pas jusqu’à dire que l’objectivité ne soit que quantité pure (ce serait trop particulariser la nature des relations en question), mais on comprend que je ne sais plus qui se soit laissé entraîner à dire que le monde n’est qu’une équation différentielle. Tout en faisant des réserves sur cette proposition paradoxale, nous devons néanmoins admettre que rien n’est objectif qui ne soit transmissible, et par conséquent que les relations entre les sensations peuvent seules avoir une valeur objective. On dira peut-être que l’émotion esthétique, qui est commune à tous les hommes, est la preuve que les qualités de nos sensations sont aussi les mêmes pour tous les hommes et par là sont objectives. Mais si l’on y réfléchit, on verra que la preuve n’est pas faite ; ce qui est prouvé, c’est que cette émotion est provoquée chez Jean comme chez Pierre par les sensations auxquelles Jean et Pierre donnent le même nom ou par les combinaisons correspondantes de ces sensations ; soit que cette émotion soit associée chez Jean à la sensation A que Jean appelle rouge, tandis que parallèlement elle est associée chez Pierre à la sensation B que Pierre appelle rouge ; soit mieux parce que cette émotion est provoquée, non par les qualités mêmes des sensations, mais par l’harmonieuse combinaison de leurs relations dont nous subissons l’impression inconsciente. Telle sensation est belle, non parce qu’elle possède telle qualité, mais parce qu’elle occupe telle place dans la trame de nos associations d’idées, de sorte qu’on ne peut l’exciter sans mettre en mouvement le « récepteur » qui est à l’autre bout du fil et qui correspond à l’émotion artistique. Qu’on se place au point de vue moral, esthétique ou scientifique, c’est toujours la même chose. Rien n’est objectif que ce qui est identique pour tous ; or on ne peut parler d’une pareille identité que si une comparaison est possible, et peut être traduite en une « monnaie d’échange » pouvant se transmettre d’un esprit à l’autre. Rien n’aura donc de valeur objective que ce qui sera transmissible par le « discours », c’est-à-dire intelligible. Mais ce n’est là qu’un côté de la question. Un ensemble absolument désordonné ne saurait avoir de valeur objective puisqu’il serait inintelligible, mais un ensemble bien ordonné peut n’en avoir non plus aucune, s’il ne correspond pas à des sensations effectivement éprouvées. Il me semble superflu de rappeler cette condition et je n’y aurais pas songé si on n’avait soutenu dernièrement que la physique n’est pas une science expérimentale. Bien que cette opinion n’ait aucune chance d’être adoptée ni par les physiciens, ni par les philosophes, il est bon d’être averti, afin de ne pas se laisser glisser sur la pente qui y mènerait. On a donc deux conditions à remplir, et si la première sépare la réalité  4 du rêve, la seconde la distingue du roman. Maintenant qu’est-ce que la science ? Je l’ai expliqué au § précédent, c’est avant tout une classification, une façon de rapprocher des faits que les apparences séparaient, bien qu’ils fussent liés par quelque parenté naturelle et cachée. La science, en d’autres termes, est un système de relations. Or nous venons de le dire, c’est dans les relations seulement que l’objectivité doit être cherchée ; il serait vain de la chercher dans les êtres considérés comme isolés les uns des autres. Dire que la science ne peut avoir de valeur objective parce qu’elle ne nous fait connaître que des rapports, c’est raisonner à rebours, puisque précisément ce sont les rapports seuls qui peuvent être regardés comme objectifs. Les objets extérieurs, par exemple, pour lesquels le mot objet a été inventé, sont justement des objets et non des apparences fuyantes et insaisissables parce que ce ne sont pas seulement des groupes de sensations, mais des groupes cimentés par un lien constant. C’est ce lien, et ce lien seul qui est objet en eux, et ce lien c’est un rapport. Donc quand nous demandons quelle est la valeur objective de la science, cela ne veut pas dire : la science nous fait-elle connaître la véritable nature des choses ? mais cela veut dire ; nous fait-elle connaître les véritables rapports des choses ? À la première question, personne n’hésiterait à répondre, non ; mais je crois qu’on peut aller plus loin : non seulement la science ne peut nous faire connaître la nature des choses ; mais rien n’est capable de nous la faire connaître et si quelque dieu la connaissait, il ne pourrait trouver de mots pour l’exprimer. Non seulement nous ne pouvons deviner la réponse, mais si on nous la donnait, nous n’y pourrions rien comprendre ; je me demande même si nous comprenons bien la question. Quand donc une théorie scientifique prétend nous apprendre ce qu’est la chaleur, ou que l’électricité, ou que la vie, elle est condamnée d’avance ; tout ce qu’elle peut nous donner, ce n’est qu’une image grossière. Elle est donc provisoire et caduque. La première question étant hors de cause, reste la seconde. La science peut-elle nous faire connaître les véritables rapports des choses ? Ce qu’elle rapproche devrait-il être séparé, ce qu’elle sépare devrait-il être rapproché ? Pour comprendre le sens de cette nouvelle question, il faut se reporter à ce que nous avons dit plus haut sur les conditions de l’objectivité. Ces rapports ont-ils une valeur objective ? cela veut dire : ces rapports sont-ils les mêmes pour tous ? seront-ils encore les mêmes pour ceux qui viendront après nous ? Il est clair qu’ils ne sont pas les mêmes pour le savant et pour l’ignorant. Mais peu importe, car si l’ignorant ne les voit pas tout de suite, le savant peut arriver à les lui faire voir par une série d’expériences et de raisonnements. L’essentiel est qu’il y a des points sur lesquels tous ceux qui sont au courant des expériences faites peuvent se mettre d’accord. La question est de savoir si cet accord sera durable et s’il persistera chez nos successeurs. On peut se demander si les rapprochements que fait la science d’aujourd’hui seront confirmés par la science de demain. On ne peut pour affirmer qu’il en sera ainsi invoquer aucune raison a priori ; mais c’est une question de fait, et la science a déjà assez vécu pour qu’en interrogeant son histoire, on puisse savoir si les édifices qu’elle élève résistent à l’épreuve du temps ou s’ils ne sont que des constructions éphémères. Or que voyons-nous ? Au premier abord il nous semble que les théories ne durent qu’un jour et que les ruines s’accumulent sur les ruines. Un jour elles naissent, le lendemain elles sont à la mode, le surlendemain elles sont classiques, le troisième jour elles sont surannées et le quatrième elles sont oubliées. Mais si l’on y regarde de plus près, on voit que ce qui succombe ainsi, ce sont les théories proprement dites, celles qui prétendent nous apprendre ce que sont les choses. Mais il y a en elles quelque chose qui le plus souvent survit. Si l’une d’elles nous a fait connaître un rapport vrai, ce rapport est définitivement acquis et on le retrouvera sous un déguisement nouveau dans les autres théories qui viendront successivement régner à sa place. Ne prenons qu’un exemple : la théorie des ondulations de l’éther nous enseignait que la lumière est un mouvement ; aujourd’hui la mode favorise la théorie électromagnétique qui nous enseigne que la lumière est un courant. N’examinons pas si on pourrait les concilier et dire que la lumière est un courant, et que ce courant est un mouvement ? Comme il est probable en tout cas que ce mouvement ne serait pas identique à celui qu’admettaient les partisans de l’ancienne théorie, on pourrait se croire fondé à dire que cette ancienne théorie est détrônée. Et pourtant, il en reste quelque chose, puisque entre les courants hypothétiques qu’admet Maxwell, il y a les mêmes relations qu’entre les mouvements hypothétiques qu’admettait Fresnel. Il y a donc quelque chose qui reste debout et ce quelque chose est l’essentiel. C’est ce qui explique comment on voit les physiciens actuels passer sans aucune gêne du langage de Fresnel à celui de Maxwell. Sans doute bien des rapprochements qu’on croyait bien établis ont été abandonnés, mais le plus grand nombre subsiste et paraît devoir subsister. Et pour ceux-là alors, quelle est la mesure de leur objectivité ? Eh bien, elle est précisément la même que pour notre croyance aux objets extérieurs. Ces derniers sont réels en ce que les sensations qu’ils nous font éprouver nous apparaissent comme unies entre elles par je ne sais quel ciment indestructible et non par un hasard d’un jour. De même la science nous révèle entre les phénomènes d’autres liens plus ténus mais non moins solides ; ce sont des fils si déliés qu’ils sont restés longtemps inaperçus mais dès qu’on les a remarqués, il n’y a plus moyen de ne pas les voir ; ils ne sont donc pas moins réels que ceux qui donnent leur réalité aux objets extérieurs ; peu importe qu’ils soient plus récemment connus puisque les uns ne doivent pas périr avant les autres. On peut dire par exemple que l’éther n’a pas moins de réalité qu’un corps extérieur quelconque ; dire que ce corps existe, c’est dire qu’il y a entre la couleur de ce corps, sa saveur, son odeur, un lien intime, solide et persistant, dire que l’éther existe, c’est dire qu’il y a une parenté naturelle entre tous les phénomènes optiques, et les deux propositions n’ont évidemment pas moins de valeur l’une que l’autre. Et même les synthèses scientifiques ont en un sens plus de réalité que celles du sens commun, puisqu’elles embrassent plus de termes et tendent à absorber en elles les synthèses partielles. On dira que la science n’est qu’une classification et qu’une classification ne peut être vraie, mais commode. Mais il est vrai qu’elle est commode, il est vrai qu’elle l’est non seulement pour moi, mais pour tous les hommes ; il est vrai qu’elle restera commode pour nos descendants ; il est vrai enfin que cela ne peut pas être par hasard. En résumé, la seule réalité objective, ce sont les rapports des choses d’où résulte l’harmonie universelle. Sans doute ces rapports, cette harmonie ne sauraient être conçus en dehors d’un esprit qui les conçoit ou qui les sent. Mais ils sont néanmoins objectifs parce qu’ils sont, deviendront, ou resteront communs à tous les êtres pensants. Cela va nous permettre de revenir sur la question de la rotation de la Terre ce qui nous fournira en même temps l’occasion d’éclaircir ce qui précède par un exemple. § 7. — LA ROTATION DE LA TERRE « ... Dès lors, ai-je dit dans Science et Hypothèse, cette affirmation la Terre tourne n’a aucun sens... ou plutôt ces deux propositions, la Terre tourne, et, il est plus commode de supposer que la Terre tourne, ont un seul et même sens. » Ces paroles, ont donné lieu aux interprétations les plus étranges. On a cru y voir la réhabilitation du système de Ptolémée, et peut-être la justification de la condamnation de Galilée. Ceux qui avaient lu attentivement le volume tout entier ne pouvaient cependant s’y tromper. Cette vérité, la Terre tourne, se trouvait mise sur le même pied que le postulatum d’Euclide par exemple ; était-ce là la rejeter. Mais il y a mieux ; dans le même langage on dira très bien : ces deux propositions, le monde extérieur existe, ou, il est plus commode de supposer qu’il existe, ont un seul et même sens. Ainsi l’hypothèse de la rotation de la Terre conserverait le même degré de certitude que l’existence même des objets extérieurs. Mais après ce que nous venons d’expliquer dans la quatrième partie, nous pouvons aller plus loin. Une théorie physique, avons-nous dit, est d’autant plus vraie, qu’elle met en évidence plus de rapports vrais. À la lumière de ce nouveau principe, examinons la question qui nous occupe. Non, il n’y a pas d’espace absolu ; ces deux propositions contradictoires : « la Terre tourne » et « la terre ne tourne pas » ne sont donc pas cinématiquement plus vraies l’une que l’autre. Affirmer l’une, en niant l’autre, au sens cinématique, ce serait admettre l’existence de l’espace absolu. Mais si l’une nous révèle des rapports vrais que l’autre nous dissimule, on pourra néanmoins la regarder comme physiquement plus vraie que l’autre, puisqu’elle a un contenu plus riche. Or à cet égard aucun doute n’est possible. Voilà le mouvement diurne apparent des étoiles, et le mouvement diurne des autres corps célestes, et d’autre part l’aplatissement de la Terre, la rotation du pendule de Foucault, la giration des cyclones, les vents alizés, que sais-je encore ? Pour le Ptoléméien, tous ces phénomènes n’ont entre eux aucun lien ; pour le Copernicien, ils sont engendrés par une même cause. En disant, la Terre tourne, j’affirme que tous ces phénomènes ont un rapport intime, et cela est vrai, et cela reste vrai bien qu’il n’y ait pas et qu’il ne puisse y avoir d’espace absolu. Voilà pour la rotation de la Terre sur elle-même ; que dire de sa révolution autour du Soleil. Ici encore, nous avons trois phénomènes qui pour le Ptoléméien sont absolument indépendants et qui pour le Copernicien sont rapportés à la même origine ; ce sont les déplacements apparents des planètes sur la sphère céleste, l’aberration des étoiles fixes, la parallaxe de ces mêmes étoiles. Est-ce par hasard que toutes les planètes admettent une inégalité dont la période est d’un an, et que cette période est précisément égale à celle de l’aberration, précisément égale encore à celle de la parallaxe ? Adopter le système de Ptolémée, c’est répondre oui ; adopter celui de Copernic c’est répondre non ; c’est affirmer qu’il y a un lien entre les trois phénomènes et cela encore est vrai bien qu’il n’y ait pas d’espace absolu. Dans le système de Ptolémée, les mouvements des corps célestes ne peuvent s’expliquer par l’action de forces centrales, la Mécanique Céleste est impossible. Les rapports intimes que la Mécanique Céleste nous révèle entre tous les phénomènes célestes sont des rapports vrais ; affirmer l’immobilité de la Terre, ce serait nier ces rapports, ce serait donc se tromper. La vérité, pour laquelle Galilée a souffert, reste donc la vérité, encore qu’elle n’ait pas tout à fait le même sens que pour le vulgaire, et que son vrai sens soit bien plus subtil, plus profond et plus riche. § 8. — LA SCIENCE POUR LA SCIENCE Ce n’est pas contre M. Le Roy que je veux défendre la Science pour la Science ; c’est peut-être ce qu’il condamne, mais c’est ce qu’il cultive, puisqu’il aime et recherche la vérité et qu’il ne saurait vivre sans elle. Mais j’ai quelques réflexions à faire. Nous ne pouvons connaître tous les faits et il faut choisir ceux qui sont dignes d’être connus. Si l’on en croyait Tolstoï, les savants feraient ce choix au hasard, au lieu de le faire, ce qui serait raisonnable, en vue des applications pratiques. Les savants, au contraire, croient que certains faits sont plus intéressants que d’autres, parce qu’ils complètent une harmonie inachevée, ou parce qu’ils font prévoir un grand nombre d’autres faits. S’ils ont tort, si cette hiérarchie des faits qu’ils postulent implicitement, n’est qu’une illusion vaine, il ne saurait y avoir de Science pour la Science, et par conséquent il ne saurait y avoir de Science. Quant à moi, je crois qu’ils ont raison, et, par exemple, j’ai montré plus haut quelle est la haute valeur des faits astronomiques, non parce qu’ils sont susceptibles d’applications pratiques, mais parce qu’ils sont les plus instructifs de tous. Ce n’est que par la Science et par l’Art que valent les civilisations. On s’est étonné de cette formule : la Science pour la Science ; et pourtant cela vaut bien la vie pour la vie, si la vie n’est que misère ; et même le bonheur pour le bonheur, si l’on ne croit pas que tous les plaisirs sont de même qualité, si l’on ne veut pas admettre que le but de la civilisation soit de fournir de l’alcool aux gens qui aiment à boire. Toute action doit avoir un but. Nous devons souffrir, nous devons travailler, nous devons payer notre place au spectacle, mais c’est pour voir ; ou tout au moins pour que d’autres voient un jour. Tout ce qui n’est pas pensée est le pur néant ; puisque nous ne pouvons penser que la pensée et que tous les mots dont nous disposons pour parler des choses ne peuvent exprimer que des pensées ; dire qu’il y a autre chose que la pensée, c’est donc une affirmation qui ne peut avoir de sens. Et cependant — étrange contradiction pour ceux qui croient au temps — l’histoire géologique nous montre que la vie n’est qu’un court épisode entre deux éternités de mort, et que, dans cet épisode même, la pensée consciente n’a duré et ne durera qu’un moment. La pensée n’est qu’un éclair au milieu d’une longue nuit. Mais c’est cet éclair qui est tout.   Notes [←1] Au lieu de dire que nous rapportons l’espace à des axes invariablement liés à notre corps, peut-être vaudrait-il mieux dire, conformément à ce qui précède, que nous le rapportons à des axes invariablement liés à la situation initiale de notre corps. [←2] Car les corps opposeraient une inertie croissante aux causes qui tendraient à accélérer leur mouvement ; et cette inertie deviendrait infinie quand on approcherait de la vitesse de la lumière. [←3] Ces considérations sur la Physique Mathématique sont empruntées à la Conférence faite à Saint-Louis. [←4] J’emploie ici le mot réel comme synonyme d’objectif ; je me conforme ainsi à l’usage commun ; j’ai peut-être tort, nos rêves sont réels, mais ils ne sont pas objectifs.
qu’elle est quelquefois décevante, que c’est un fantôme qui ne se montre à nous un instant que pour fuir sans cesse, qu’il faut la poursuivre plus loin et nous demandons si l’illusion n’est pas non seulement plus consolante, mais plus fortifiante aussi ; car c’est elle qui nous donne la confiance. mots, que je réunis ainsi sous un même nom deux objets qui n’ont rien de commun ; que la vérité scientifique qui se démontre ne peut, à aucun titre, une fois découvertes, nous procurent la même joie ; l’une et l’autre, dès et celui qui les poursuit est condamné à ne jamais connaître le repos. Il faut ajouter que ceux qui ont peur de l’une, auront peur aussi de En un mot, je rapproche les deux vérités, parce que ce sont les mêmes raisons qui nous les font aimer et parce que ce sont les mêmes raisons qui nous les font redouter. Si nous ne devons pas avoir peur de la vérité morale, à plus forte raison devons viser, l’autre, le but étant donné, nous fait connaître les moyens de Mais si l’on a peur de la science, c’est surtout parce qu’elle ne peut nous Évidemment non, elle ne peut pas nous le donner, et l’on Aussi l’homme ne peut être heureux par la science, mais aujourd’hui il peut bien moins encore être heureux sans elle. Mais si la vérité est le seul but qui mérite d’être poursuivi, pouvons- La vérité qu’il nous est permis d’entrevoir n’est pas tout à fait ce que Ou bien pouvons-nous malgré tout approcher de la vérité par sujet, écrire bien des volumes ; je n’ai fait que l’effleurer en quelques mathématiciens eux-mêmes ne se ressemblent pas entre eux ; les uns ne même pour tous est-elle la vérité ? près, nous voyons comment ces ouvriers si différents collaborent à une Il faut ensuite examiner les cadres dans lesquels la nature nous paraît Hypothèse, j’ai déjà montré combien leur valeur est relative ; ce n’est pas la que nous les trouvons commodes, mais je n’ai guère parlé que de l’espace, et surtout de l’espace quantitatif, pour ainsi dire, c’est-à-dire des relations dont on aurait pu se passer à la rigueur ; et même, n’est-il pas à craindre que toujours ignoré l’harmonie interne du monde, qui est, nous le verrons, la La meilleure expression de cette harmonie, c’est la Loi ; la Loi est une miracles ; mais la merveille éternelle c’est qu’il n’y ait pas sans cesse des S’il était régi par le caprice, qu’est-ce qui nous Cette conquête de la Loi, c’est à l’Astronomie que nous la devons, et c’est ce qui fait la grandeur de cette Science, plus encore que la grandeur Science ; elles sont allées jusqu’à dire que la Loi, que le fait scientifique lui- Non, les lois scientifiques ne sont pas des créations artificielles ; nous n’avons aucune raison de les regarder comme le verrons, ce ne peut être que l’harmonie exprimée par des lois C’est donc cette harmonie qui est la seule réalité objective, la seule Il est impossible d’étudier les Œuvres des grands mathématiciens, et premier coup des conquêtes rapides, mais quelquefois précaires, ainsi que Ce n’est pas la matière qu’ils traitent qui leur impose l’une ou l’autre appelle les autres géomètres, cela n’empêche pas que les uns restent analystes, même quand ils font de la Géométrie, tandis que les autres sont nature même de leur esprit qui les fait logiciens ou intuitifs, et ils ne Ce n’est pas non plus l’éducation qui a développé en eux l’une des deux Je voudrais citer des exemples et certes ils ne manquent pas ; mais pour est une vérité que nous croyons connaître par intuition directe, c’est bien Klein : il étudie une des questions les plus définira une fonction dont les singularités seront précisément celles qui sont illustres ; ce sont ceux des deux savants qui ont fondé la théorie générale conceptions est une image que nul ne peut oublier dès qu’il en a compris le Chez nos étudiants, nous remarquons les mêmes différences ; les uns Science ; les logiciens, comme les intuitifs, ont fait de grandes choses que toujours la même, il est peu probable qu’elle ait commencé dans ce siècle à de leur temps, nous reconnaîtrions que beaucoup de ces vieux géomètres intuitifs sont restés les mêmes ; mais leurs lecteurs ont exigé d’eux plus de que cette proposition qui nous est imposée par la logique. n’auraient pas manqué de dire : « Il est évident que toute fonction continue Nous savons bien que ces lignes n’ont pas d’épaisseur ; nous nous Et alors il est clair que nous pourrons toujours nous représenter ces deux Nous serons ainsi amenés, à moins d’être avertis par une analyse de fonction et que nous sommes familiarisés avec toutes les singularités que peuvent présenter les fonctions quand on entend ce mot dans le sens le plus ne se seraient sans doute pas produites, et peut-être pourrait-on ainsi, même C’est là d’abord que les logiciens ont dû porter leurs efforts. Nous croyons dans nos raisonnements ne plus faire appel à l’intuition ; les philosophes nous diront que c’est là une illusion. nouveau ; ce n’est pas d’elle toute seule qu’aucune science peut sortir. L’intuition n’est pas forcément fondée sur le témoignage des sens ; les imaginaire ; ce qui est vrai de l’hyperbole dont les asymptotes sont réelles, doit donc être vrai de l’ellipse dont les asymptotes sont imaginaires. Poncelet était l’un des esprits les plus intuitifs de ce siècle ; il l’était avec comme une de ses conceptions les plus hardies, et cependant ce principe ne ainsi dire, sur les procédés des sciences expérimentales ; nous avons enfin l’intuition du nombre pur, celle d’où est sorti le second des axiomes que Les deux premières ne peuvent nous donner la certitude, je l’ai montré plus haut par des exemples ; mais qui doutera sérieusement de la troisième, Les philosophes font encore une autre objection : « Ce que vous gagnez Votre Science est impeccable, mais elle ne peut le rester qu’en qui répond à cette définition est bien le même que l’intuition vous a fait différentes, mais que l’on n’avait pas distinguées tout d’abord. était une vérité mathématique et elle est maintenant rigoureusement établie. mathématiquement, mais elle ne peut pas l’être, pas plus que ne peuvent l’être les lois empiriques des Sciences physiques et naturelles. Est-ce à dire qu’il n’y a rien à retenir de cette objection des Ce n’est pas cela que je veux dire ; en devenant rigoureuse, la Cela nous montre que la logique ne suffît pas ; que la Science de la démonstration n’est pas la Science tout entière et que l’intuition doit Mais aujourd’hui, c’est avant tout du rôle de l’intuition dans la Science Les physiologistes nous apprennent que les organismes sont formés de cellules ; les chimistes ajoutent que les cellules elles-mêmes sont formées réalité, beaucoup plus intéressante que celle des éléments isolés, et un les unes après les autres et qu’on aura constaté que chacune d’elles est Évidemment non, nous ne posséderons pas encore la réalité tout entière, n’y pas rencontrer d’obstacles ; mais, de tous ces chemins, quel est celui qui Il nous faut une faculté qui nous fasse voir le but de loin, et, cette raison intime qui fait de cette série de coups successifs une sorte de tout À plus forte raison, cette faculté est-elle nécessaire au joueur lui- Voyons ce qui est arrivé, par exemple pour l’idée de fonction continue. qui reproduisait pour ainsi dire toutes les lignes de l’image primitive ; d’appui et qui était désormais inutile ; il n’est plus resté que la construction nous par quel caprice toutes ces inégalités se sont échafaudées de cette Vous trouverez peut-être que j’abuse des comparaisons ; passez-m’en Il n’y a là, il est vrai, que de la silice, mais, ce qui est intéressant, c’est la C’est ainsi que les anciennes notions intuitives de nos pères, même lorsque nous les avons abandonnées, impriment encore leur forme aux Au début, j’ai distingué deux sortes d’esprits mathématiques, les uns Les noms que j’ai cités tout à l’heure Ce n’est pas ainsi qu’ils auraient pu étendre les frontières de la Science ; on ne peut faire de conquête scientifique que par la généralisation. C’est par ce procédé que les analystes ont fait progresser la Science et si Nous voyons donc déjà que les analystes ne sont pas simplement des Par exemple, un des raisonnements chers aux analystes est celui qui est qu’il reconnaisse l’analogie de cette question avec celles qui ont déjà été nouvelle question diffère des autres, et qu’il en déduise les modifications Dans l’exemple que je viens de citer, elles sont presque toujours beaucoup plus cachées ; souvent il faut pour les découvrir une perspicacité Les analystes, pour ne pas laisser échapper ces analogies cachées, c’est- à-dire pour pouvoir être inventeurs, doivent, sans le secours des sens et de raisonnement, de ce qui en fait pour ainsi dire l’âme et la vie intime. d’esprits et que tous les mathématiciens sont des intuitifs, du moins ceux L’abîme qui les sépare est-il moins profond qu’il ne paraît d’abord ? Reconnaîtrait-on avec un peu d’attention que cette intuition pure elle-même d’intuition ; elles n’ont pas le même objet et semblent mettre en jeu deux C’est l’intuition du nombre pur, celle des formes logiques pures qui C’est elle qui leur permet non seulement de démontrer, mais encore d’un édifice logique, et cela sans que les sens paraissent intervenir. En rejetant le secours de l’imagination, qui, nous l’avons vu, n’est pas Pour les analystes, il y aura donc des inventeurs, mais il y en aura peu. bâton plus solide et, malgré les exceptions dont nous venons de parler, il n’en est pas moins vrai que l’intuition sensible est en Mathématiques M. Hermite, par exemple, que je citais tout à l’heure, ne peut être classé parmi les géomètres qui font usage de l’intuition sensible ; mais il n’est pas sensations futures ; mais nous savons parfaitement ce que nous voulons dire Quand nous disons que deux faits conscients sont simultanés, nous souvenirs dans le temps, mais nous savons qu’il reste des cases vides. Comment saurions-nous qu’il y a des cases vides, si ces cases ne nous étaient révélées que par leur contenu ? Mais ce n’est pas tout ; dans cette forme nous voulons faire rentrer non Bien plus, nous voulons y faire rentrer les faits physiques, ces je ne sais quoi dont nous peuplons l’espace et que nulle De quel droit voulons-nous les faire entrer dans un même que tel fait est antérieur à tel autre, mais non de combien il est antérieur. 1° Pouvons-nous transformer le temps psychologique, qui est qualitatif, 2° Pouvons-nous réduire à une même mesure des faits qui se passent l’objet de longues discussions et on peut dire que la question est tranchée. Les personnes qui croient posséder cette intuition sont dupes d’une Quand je dis, de midi à une heure, il s’est écoulé le même temps que de n’aura que celui que je voudrai bien lui donner, par une définition qui définition que tous les battements de ce pendule sont d’égale durée. c’est-à-dire la durée de rotation de la terre, qui est l’unité constante du On admet, par une définition nouvelle substituée à celle qui est tirée Cependant les astronomes ne se sont pas contentés encore de cette sont imparfaits, mais il suffit que nous puissions concevoir un instrument Le malheur est que cette rigueur ne s’y rencontre pas. servons du pendule pour mesurer le temps, quel est le postulat que nous C’est que la durée de deux phénomènes identiques est la même ; ou, si l’on aime mieux, que les mêmes causes mettent le même temps à produire et β sont simultanés, de même que les effets α′ et β′. reproduit aussi en un point très éloigné du monde et à peu près dans les Car l’expérience nous apprendrait que la première durée αα′ est égale à Au contraire notre postulat exigerait que les deux durées αα′ fussent égales entre elles, de même que les deux durées ββ′. Or, pouvons-nous affirmer que les hypothèses que je viens de faire Dans la réalité physique, une cause ne produit pas un effet, mais une Les physiciens cherchent à faire cette distinction ; mais ils ne la font Dans ces conditions, il est clair que les causes qui ont produit un certain 1897) : « Une des circonstances d’un phénomène quelconque est la vitesse dans la reproduction de ce phénomène une circonstance qui ne reste plus la loi de Newton, serait plus petite que celle qui est déduite des temps doit être défini de telle façon que la loi de Newton et celle des forces La loi de Newton est une vérité d’expérience ; comme telle elle n’est qu’approximative, ce qui montre que nous n’avons encore qu’une définition Si nous supposons maintenant que l’on adopte une autre manière de mesurer le temps, les expériences sur lesquelles est fondée la loi de Newton De sorte que la définition implicitement adoptée par les astronomes peut Le temps doit être défini de telle façon que les équations de la En d’autres termes, il n’y a pas une manière de mesurer le temps qui soit De deux horloges, nous n’avons pas le droit de dire que l’une marche bien et que l’autre marche mal ; nous pouvons dire seulement qu’on a est cependant tout à fait analogue à la précédente ; et même, logiquement, différentes ; quand je dis qu’ils sont simultanés, qu’est-ce que je veux dire ? deux cents ans, avant que la lumière partie de cette étoile eût atteint notre gigantesque qui n’a peut-être eu aucun témoin, puisque les satellites de cette étoile n’ont peut-être pas d’habitants, quand je dis que ce phénomène Il suffit d’un peu de réflexion pour comprendre que toutes ces Elles ne peuvent en avoir un que par suite d’une convention. faire rentrer dans un même cadre tant de mondes impénétrables les uns aux Nous voulons au moins que l’on puisse concevoir une intelligence infinie pour laquelle cette représentation serait possible, une sorte de grande n’en pourrait avoir d’autre, puisque sans cela tous les souvenirs lui seraient également présents et qu’il n’y aurait pas de temps pour elle. Et cependant quand nous parlons du temps, pour tout ce qui se passe en Ce que je viens de dire nous montre peut-être pourquoi nous avons cherché à faire rentrer tous les phénomènes physiques dans un même cadre. Mais cela ne peut passer pour une définition de la simultanéité, puisque Les définitions ordinaires qui conviennent pour le temps psychologique, On a dit aussi que deux faits doivent être regardés comme simultanés que cette définition ne saurait convenir pour deux faits physiques qui se produisent à de grandes distances l’un de l’autre, et que, en ce qui les concerne, on ne comprend même plus ce que peut être cette réversibilité ; J’écris une lettre ; elle est lue ensuite par l’ami à qui je l’ai adressée. Bien que ces deux faits se passent dans des mondes impénétrables, je n’hésite pas à regarder le premier comme antérieur au second, parce que je l’image sonore subie par ma conscience, parce que je crois qu’il en est la C’est donc par la cause que nous définissons le temps ; mais le plus souvent, quand deux faits nous apparaissent liés par une relation constante, admettons que le fait antérieur, l’antécédent, est la cause de l’autre, du C’est alors par le temps que nous définissons la cause. quelconque, j’infère que cette conséquence n’est pas immédiate ; mais qu’il Si je crois avoir des raisons pour regarder les que c’est B qui est la cause de C, puisqu’on voit toujours B se produire Ces deux phénomènes, quand on est témoin, se passent dans un il n’y a pas de raison pour que cet ordre soit interverti. directement les phénomènes physiques B et C ; ce que nous connaissons, ce si toutes les parties de l’univers sont solidaires dans une Pour ne pas nous perdre dans cette infinie complexité, faisons une Jupiter et Saturne ; mais, pour plus de simplicité, regardons-les comme les vitesses des trois corps à un instant donné suffisent pour déterminer l’instant t et Saturne à l’instant t + a, par des lois aussi précises que celle de Il ne peut y avoir à cela que des raisons de commodités et de simplicité, Mais passons à des exemples moins artificiels ; pour nous rendre Il a commencé par admettre que la lumière a une vitesse constante, et en particulier que sa vitesse est la même dans toutes les directions. pourrait être contredit par elle, si les résultats des diverses mesures n’étaient n’ait pas lieu et que les petites discordances qui peuvent se produire été accepté par tout le monde ; ce que je veux retenir, c’est qu’il nous différente de celle que nous avions énoncée plus haut. Les faits observés ne pourraient-ils pas tout aussi bien s’expliquer si on Seulement on serait conduit à remplacer la loi de Newton par une autre plus Ainsi on adopte pour la vitesse de la lumière une valeur telle que les lois précisément à résoudre le problème qui nous occupe ; ils doivent, sans être pour être rigoureux, il faudrait faire encore une petite correction par un calcul compliqué ; on ne la fait pas dans la pratique, parce qu’elle serait n’en subsiste pas moins à notre point de vue, qui est celui d’une définition Nous n’avons pas l’intuition directe de la simultanéité, pas plus que Si nous croyons avoir cette intuition, c’est une illusion. Nous choisissons donc ces règles, non parce qu’elles sont vraies, mais parce qu’elles sont les plus commodes, et nous pourrions les résumer en l’égalité de deux durées, doivent être définies de telle sorte que l’énoncé des règles, toutes ces définitions ne sont que le fruit d’un opportunisme Dans les articles que j’ai précédemment consacrés à l’espace, j’ai aborder, telles que celles qui se rapportent au nombre des dimensions. Toutes les géométries que j’envisageais avaient ainsi un fond commun, ce différenciait que par les figures qu’on y traçait ou quand on prétendait le indifféremment l’un ou l’autre des deux espaces, de même que sur une Dans l’espace nous connaissons des triangles rectilignes dont la somme des angles est égale à deux droites ; mais nous connaissons également des triangles curvilignes dont la somme des angles est plus petite que deux L’existence des uns n’est pas plus douteuse que celle des autres. Il est évident que l’expérience ne peut résoudre une pareille question ; que je n’ai pas le droit de donner le nom de droites aux côtés des triangles quand nous disons que la droite euclidienne est une vraie droite et que la droite non-euclidienne n’est pas une vraie droite, nous voulons dire tout Mais comment jugeons-nous que cet objet est C’est ce que j’ai recherché dans Science et Hypothèse. C’est là que nous avons vu intervenir l’expérience ; si la droite euclidienne est plus remarquable que la droite non-euclidienne, c’est avant nom de droites non-euclidiennes, tandis que de deux cercles de même alors si nous transportons une de ces soi-disant droites sans la déformer, elle égales ces deux figures que les géomètres euclidiens appellent deux cercles dont les géomètres euclidiens disent qu’ils ne sont pas accompagnés de droites les côtés des triangles non-euclidiens ; on a démontré seulement que déformation les mouvements euclidiens ; mais on aurait montré tout aussi bien qu’il serait déraisonnable d’appeler droites les côtés des triangles Maintenant quand nous disons que les mouvements euclidiens sont les vrais mouvements sans déformation, que voulons-nous dire ? dire simplement qu’ils sont plus remarquables que les autres ; et pourquoi grandiraient en même temps que les objets mêmes qu’ils servent à mesurer. encore indiscernables si l’on peut passer de l’un à l’autre par une inversement ; et de plus que les coordonnées d’un point soient des fonctions Si l’un de ces univers est notre monde euclidien, ce que ses habitants appelleront droite, ce sera notre droite euclidienne ; mais ce que les ponctuelle qui fait passer de notre monde au leur ; les droites de ces hommes ne seront pas nos droites, mais elles auront entre elles les mêmes rapports que nos droites entre elles, c’est dans ce sens que je dis que leur se trompent, que leur droite n’est pas la vraie droite, si nous ne voulons pas euclidien n’est pas une forme imposée à notre sensibilité, puisque nous pouvons imaginer l’espace non-euclidien ; mais les deux espaces euclidien euclidien, soit l’espace lobatchewskien, de même que nous pouvons, en y L’étude de ces propriétés est l’objet d’une science qui a été abstraction de toute idée quantitative et par exemple, si on constate que sur une ligne le point B est entre les points A et C, on se contentera de cette sont pas altérés par une « transformation ponctuelle » quelconque. géométrie projective était purement qualitative ; cela n’est pas tout à fait Les mêmes questions qui se posaient à propos des vérités de la Nous ne pouvons pas admettre à la fois qu’il est impossible d’imaginer Nous n’avons pas besoin d’observation pour savoir que l’aiguille d’une horloge n’est pas sur la division 15 du cadran, puisque nous savons d’avance qu’il n’y en a que 12, et nous ne pourrions pas regarder à la des objections les plus graves qu’on peut diriger contre eux, de celle qui et, par exemple, si l’on voit que l’espace ne peut avoir ni deux ou moins de deux dimensions, ni quatre ou plus de quatre, on est certain qu’il en a De tous les théorèmes de l’Analysis Sitûs, le plus important est celui Il arrive que nous sommes capables de distinguer deux C’est ainsi que nous pouvons discerner Ce serait là la formule du continu physique, tel que nous le donne l’expérience brute, d’où une contradiction intolérable que l’on a levée par Celui-ci est une échelle dont les Le continu physique est pour ainsi dire une nébuleuse non résolue, les et la difficulté n’aurait fait que reculer et la nébuleuse ne serait toujours pas peut pas être discerné d’un autre élément du même continu, si ce nouvel appartenant tous à ce même continu C et tels que chacun d’eux est quelconques A et B du continu C, nous pourrons dire que ce continu C est Distinguons maintenant quelques-uns des éléments de C qui pourront ou bien être tous discernables les uns des autres, ou former eux-mêmes un ou Ou bien au contraire dans toutes les séries E quitter C et sans rencontrer les coupures ; dans le second cas cela est toujours le premier cas qui se présente, nous dirons que C reste d’un seul Ainsi si nous choisissons les coupures d’une certaine manière, d’ailleurs qu’il ne reste pas d’un seul tenant ; dans cette dernière hypothèse nous dirons alors qu’il est divisé par les coupures. On remarquera que toutes ces définitions sont construites en partant coupures un certain nombre d’éléments tous discernables les uns des autres, on dit que ce continu est à une dimension ; si au contraire pour diviser un d’éléments formant eux-mêmes un ou plusieurs continus, nous dirons que plusieurs continus à une dimension, nous dirons que C est un continu à deux dimensions au plus, nous dirons que C est un continu à trois Pour justifier cette définition, il faut voir si c’est bien ainsi que les lignes, et ils affirment que le même processus ne peut être poussé plus loin. C’est bien la même idée ; pour diviser l’espace, il faut des coupures que l’on appelle surfaces ; pour diviser les surfaces il faut des coupures que l’on appelle lignes ; pour diviser les lignes, il faut des coupures que l’on appelle n’est pas un continu ; alors les lignes, qu’on peut diviser par des coupures qui ne sont pas des continus, seront des continus à une dimension ; les surfaces que l’on peut diviser par des coupures continues à une dimension, seront des continus à deux dimensions, enfin l’espace que l’on peut diviser applicable non au continu mathématique, mais au continu physique, qui est On voit, d’ailleurs, que cette définition ne s’applique pas seulement à l’espace, que dans tout ce qui tombe sous nos sens, nous retrouvons les nous apprend à faire des distinctions parmi les continus d’un même nombre de dimensions et que la classification de ces continus repose encore sur la dimensions de la même façon que le continu physique à une dimension qui résumait les données brutes de l’expérience impliquait une contradiction voulons dire que l’ensemble des points de l’espace satisfait à la définition que nous venons de donner du continu physique à trois dimensions. croit savoir ce que c’est qu’un point, et c’est même parce que nous le savons trop bien que nous croyons n’avoir pas besoin de le définir. peuvent se représenter qu’un objet ou mieux les impressions que cet objet n’insiste pas sur cette difficulté qui exigerait pourtant quelque discussion. Et en effet, pour que nous puissions appliquer à un continu la règle que j’ai exposée plus haut et par laquelle on peut reconnaître le nombre de ses dimensions, nous devons nous appuyer sur ce fait que deux Il faut donc que nous sachions dans certains cas nous représenter La question est de savoir si le point que je me représentais il y a une heure, est le même que celui que je me représente maintenant ou si c’est un par l’objet A à l’instant α est le même que le point occupé par l’objet B à de dire que le point A qu’occupait cet objet au début de cette seconde est l’affirmer, mais cette affirmation n’a aucun sens et en tout cas ne peut relative de cet objet par rapport à notre corps a varié ; si les impressions que nous cause cet objet n’ont pas changé, nous serons enclins à juger que cette position relative n’a pas changé non plus ; si elles ont changé, nous comment nous avons été amenés à distinguer les changements de position. relative d’un objet par rapport à notre corps est ou non restée la même. Si maintenant nous voyons que deux objets ont conservé leur position relative par rapport à notre corps, nous concluons que la position relative de ces deux objets l’un par rapport à l’autre n’a pas changé ; mais nous chose que nous connaissions directement c’est la position relative des objets représenter simultanément des objets et moi-même en mouvement dans Savons-nous cette fois ce que c’est qu’un point représenter les mouvements qu’il faudrait faire pour l’atteindre ; je m’explique ; il ne s’agit pas de se représenter les mouvements eux-mêmes dans l’espace, mais uniquement de se représenter les sensations musculaires occuper la même position relative par rapport à nous, les impressions que nous causeront ces deux objets seront très différentes ; si nous les localisons au même point, c’est simplement parce qu’il faut faire les mêmes mouvements pour les atteindre ; à part cela, on ne voit pas bien ce qu’ils de cette solution, si on veut faire intervenir par exemple les sensations visuelles à côté des sensations musculaires, on aura une ou deux manières jugeons-nous que toutes ces représentations si différentes les unes des rapportons tous les points de l’espace, et que ce système d’axes est comme Comme il n’en est pas ainsi, nous devons, avant de rapporter les objets J’ai montré dans Science et Hypothèse le rôle prépondérant joué par les que ces déplacements feraient subir à ses impressions ne seraient pas attribuées par cet être à des changements de position, mais à de simples Les mouvements que nous imprimons à nos membres ont pour effet de d’autres causes peuvent également les faire varier ; mais nous sommes et nous les discernons facilement pour deux raisons : 1° parce qu’ils sont Ainsi nous répartissons naturellement les changements que peuvent subir nos impressions en deux catégories que j’ai appelées d’un nom peut- être impropre : 1° les changements internes, qui sont volontaires et Nous observons ensuite que parmi les changements externes, il y en a objet ne s’est pas déplacé, mais a changé d’état, cela est impossible). une nouvelle distinction, parmi les changements externes : ceux qui peuvent remplacé celle du bleu ; nos sens ont éprouvé les mêmes impressions qui se regardés par nous comme très différents ; le premier est un déplacement, le Bien plus, si les deux hémisphères, au lieu d’être rouge et bleu, avaient succède au jaune ; et cependant je dis que les deux sphères ont éprouvé la même rotation, que l’une comme l’autre ont tourné autour de leur axe ; je ne puis pourtant pas dire que le vert soit au jaune comme le rouge est au bleu ; comment alors suis-je conduit à juger que les deux sphères ont subi le me représenter les mouvements de mon corps dans l’espace géométrique. Pourquoi alors suis-je conduit à juger que ces deux sensations, C’est parce que je puis suivre l’objet de l’œil et, par un au bord B de la rétine ; je jugerai que ces deux objets ont subi le même mouvement parce que j’ai éprouvé les mêmes sensations musculaires. l’on me demandait si elles sont liées par la proportion que je viens Envisageons maintenant les changements internes, c’est-à-dire ceux qui sont produits par les mouvements volontaires de notre corps et qui sont autre, mais en conservant la même attitude ; toutes les parties de ce corps ont donc conservé ou repris la même situation relative, bien que leur non seulement la position de mon corps a changé, mais que son attitude n’est plus la même, que par exemple mes bras qui tout à l’heure étaient C’est que les premiers peuvent servir à corriger un changement externe, et que les autres ne le peuvent pas ou du moins ne quelqu’un qui saurait déjà la géométrie, mais il ne faut pas en conclure qu’il Mais pour faire la distinction entre les deux sortes de extérieur se soit déplacé ; si nous voulons que les diverses parties de notre les unes par rapport aux autres. être corrigé par deux changements internes correspondant à des sensations C’est parce que ces deux d’espace, parce que nous n’aurions plus intérêt à classer les changements Il est intéressant de voir quel a été dans tout cela le rôle de l’expérience. m’a pas appris comment est l’espace et qu’il satisfait à la condition dont il cette condition ou qu’il ne sera pas, je ne puis pas dire non plus que Bien que les impressions motrices aient, comme je viens de l’expliquer, Il faut bien que nous conscience de ses mouvements, nous n’aurions pu reconnaître que ces deux de géométrique, de sorte qu’on peut dire qu’il n’y a pas d’espace visuel pur. Pour lever cette difficulté, n’envisageons que des sensations de même nature, des sensations rouges, par exemple, ne différant les unes des autres raison pour faire un choix aussi arbitraire parmi toutes les sensations visuelles possibles, pour réunir dans une même classe toutes les sensations jamais songé, si je n’avais pas appris d’avance, par le moyen que nous comme qualitativement distinctes, au même titre que deux sensations de de ces sensations formera une sorte de coupure que j’appellerai C, et il est clair que cette coupure suffit pour diviser l’ensemble des sensations rouges Si toutes les sensations rouges affectant un même point de la rétine Et pourtant le plus souvent on dit que l’œil nous donne le sentiment d’une troisième dimension, et nous permet dans une certaine mesure de des yeux, soit à celle de l’effort d’accommodation que fait le muscle ciliaire donc regardées comme identiques que si elles sont accompagnées d’une Mais il arrive justement que l’expérience nous apprend que, quand deux Si alors nous formons une nouvelle coupure C′′ avec toutes celles des en a une, C deux et que l’espace visuel total en a trois. Mais en serait-il de même si l’expérience nous avait appris le contraire une dimension (pour le moins) ; alors C′ en aurait deux, C trois et l’espace Va-t-on dire alors que c’est l’expérience qui nous apprend que l’espace a trois dimensions, puisque c’est en partant d’une loi expérimentale que nous Mais nous n’avons fait là pour ainsi d’adapter sur les yeux des verres de construction convenable pour faire allons-nous dire qu’il suffit de mettre des bésicles pour que l’espace ait quatre dimensions et que l’opticien qui les a construites a donné une Évidemment non, tout ce que nous pouvons dire c’est que l’expérience nous a appris qu’il est commode d’attribuer à Le véritable espace est l’espace moteur et c’est celui que nous rechercher ce qu’on veut dire quand on dit que l’espace a trois dimensions et nous nous sommes demandé d’abord ce que c’est qu’un continu physique être discernés (ce que l’on exprime d’ordinaire en disant qu’ils sont trop voisins l’un de l’autre, et que nos sens sont trop grossiers pour que nous puissions les distinguer) et nous constatons de plus que deux de ces appartenant tous au continu C, de telle façon que A et B soient les deux C sont reliés entre eux, nous dirons que C est d’un seul tenant. Parmi les suites Σ qui relient A à B, nous distinguerons celles dont un élément est indiscernable d’un des éléments de la coupure (nous dirons que ce sont celles qui coupent la coupure) et celles dont tous les qui relient A à B coupent la coupure, nous dirons que A et B sont séparés deux éléments qui soient séparés par la coupure, nous dirons que la coupure Ces définitions posées, si le continu C peut être divisé par des coupures qui ne forment pas elles-mêmes un continu, ce continu C n’a qu’une un continu physique, qui soit pour ainsi dire équivalent à l’espace, de telle qu’à des points de l’espace très voisins les uns des autres, correspondent des est indispensable ; parce que nous ne pouvons nous représenter l’espace et infini, et nous ne pouvons nous représenter que des continus physiques et Les divers éléments de l’espace, que nous appelons points, que nous sachions discerner les éléments les uns des autres, au moins s’ils Enfin l’espace absolu est un non-sens, et il nous notre corps (que nous devons toujours supposer ramené à une même discussion nous a permis de voir dans quelle mesure il est permis de dire J’ai rappelé ensuite quelle est l’origine de la distinction que nous faisons Parmi les changements qui se produisent dans nos impressions, nous soit corrigé par un changement interne qui rétablit les sensations primitives. par β′ ; et que α′ puisse corriger soit α, soit β ; l’expérience nous apprend Dans ce cas nous dirons que α et β appellerons le continu ou le groupe des déplacements et que nous définirons ce second cas, ils seront pour ainsi dire indiscernables par convention, je connaissons ses éléments et que nous avons précisé dans quelles conditions déplacements n’est donc pas équivalent à l’espace, puisque le nombre des dimensions n’est pas le même, il est seulement apparenté à l’espace. Comment savons-nous maintenant que ce continu des déplacements a Il serait aisé de décrire les expériences par lesquelles nous pourrions coupures qui le divisent et qui sont des continus ; qu’on peut diviser ces coupures elles-mêmes par d’autres coupures du second ordre qui sont encore des continus, et qu’on ne serait arrêté qu’après les coupures du demander pourquoi l’espace à trois dimensions nous est beaucoup plus Tel est le problème que nous nous sommes posé au chapitre précédent, Comme je l’ai expliqué, il ne s’agit pas de comparer les positions des impressions que j’attribuais à l’objet A m’étaient transmises les unes par une des fibres de mon nerf optique, les autres par un des nerfs sensitifs j’attribue à l’objet B me sont transmises, les unes par cette même fibre du Doit-on supposer, pour prendre par exemple les sensations visuelles, que A sensations me sont transmises par une même fibre rétinienne, a est serait cette identité, dis-je, qui nous avertirait que toutes ces sensations me Quoi qu’il en soit de cette hypothèse, et bien que je sois porté à en préférer d’autres notablement plus compliquées, il est certain que nous B me sont transmises à l’instant β par ces mêmes fibres tant optiques que tactiles qui, à l’instant α, m’avaient transmis les impressions que j’attribuais S’il en est ainsi, nous n’hésiterons pas à déclarer que le point occupé Je viens d’énoncer deux conditions pour que ces deux points soient La première est nécessaire, mais n’est pas suffisante. O, il n’est pas nécessaire que les points M et M′ coïncident : comme la vue s’exerce à distance, il suffit que les trois points O M M′ soient en ligne Cette condition que les deux objets forment leur image en O est donc nécessaire, mais non suffisante pour que les points M et M′ coïncident. l’instant β, est à la fois nécessaire et suffisante pour que M et M′ coïncident. Mais nous qui ne savons pas encore la géométrie, nous ne pouvons raisonner comme cela ; tout ce que nous pouvons faire, c’est de constater remplie sans que le soit la seconde, qui est relative au toucher, mais que la seconde ne peut pas être remplie sans que la première le soit. contraire ne peut pas l’être sans que celle du toucher le soit. s’il en était ainsi, nous conclurions que c’est le toucher qui peut s’exercer à Mais ce n’est pas tout ; jusqu’ici j’ai supposé que pour déterminer la mais j’aurais tout aussi bien pu employer d’autres moyens, par exemple nouveau une impression tactile que j’attribue cette fois à l’objet B ; je fais Comment le sais-je, c’est parce que des les impressions primitives se rétablissaient, c’est-à-dire que les deux séries Il y a des chances pour que l’objet A n’ait pas conclus que ce second doigt se trouvait alors en M, c’est-à-dire que les sont inverses des mouvements S, ils doivent avoir pour effet d’amener le raisonner de la sorte, mais nous constatons que cette prévision se réalise à distance, cette assertion n’a qu’un sens qui est le suivant. les autres le soient, mais il ne suffit pas que le critère relatif à l’œil le soit. avons vu que pour engendrer cet espace, il faut faire intervenir les d’accommodation ; que si ces deux dernières n’étaient pas toujours on obtiendrait « l’espace visuel simple » qui n’aurait que deux dimensions. sensations d’un seul doigt, c’est-à-dire en somme l’ensemble des positions Cet espace tactile que nous analyserons dans le nous sont transmises par une même fibre rétinienne, bien que ces Comment savons-nous que les à l’instant β, si ces deux objets ont formé leur image au même point de la rétine, comment savons-nous, dis-je, que ces impressions ont quelque chose On peut rejeter l’hypothèse simple que j’avais faite plus haut et admettre que ces deux impressions, qualitativement différentes, me sont mouvements de l’œil qui nous ont appris qu’il y a la même relation entre la B. Ils nous ont montré en effet que les mêmes mouvements, correspondant c’est que je n’aie pas bougé entre les instants α et β. que de même, à l’instant β, l’objet B touche ce premier doigt ; mais en même temps, mon sens musculaire m’a averti que dans l’intervalle mon pareilles séries S et S′ comme inverses l’une de l’autre parce que nous avons souvent observé que quand ces deux séries se succèdent nos Si alors mon sens musculaire m’avertit que j’ai bougé entre les deux conclurai encore, tout comme si je n’avais pas bougé, que les points Je veux comparer les deux points occupés par A et B aux instants α et β, ou (ce qui revient au même puisque je suppose que mon doigt touche cette comparaison est la série Σ des sensations musculaires qui ont accompagné les mouvements de mon corps entre ces deux instants. de ne pas considérer comme distinctes les deux séries Σ et Σ + S + S′ sont pas distincts dans deux cas : 1° si Σ est identique à Σ′ ; 2° si Σ′ = Σ + S Si, dans tous les autres cas, nous dimensions que l’ensemble des séries Σ distinctes, c’est-à-dire beaucoup comme distinctes les séries Σ et Σ + σ où la série σ correspond à des continu à trois dimensions, mais que si on regarde deux séries Σ et Σ′ l’ensemble de toutes les séries Σ telles qu’à la fin des mouvements série σ est donc une de celles qui correspondent à des mouvements où le sensations distinctes ; car sans que le doigt bouge, le corps peut prendre une amenés à distinguer des autres ces séries σ où le doigt ne bouge pas ; ce n’est en effet qu’après avoir fait cette distinction que nous pourrons être Nous sommes amenés à distinguer les séries σ, parce qu’il arrive souvent que quand nous avons exécuté les mouvements qui correspondent à ces séries σ de sensations musculaires, les sensations tactiles qui nous sont Cela, c’est l’expérience qui nous l’apprend et elle seule qui les séries σ, c’est parce qu’elles conservent certaines de nos impressions. l’impression A, puis les sensations musculaires S, nous éprouverons encore J’ai dit plus haut qu’il arrive souvent que les séries σ n’altèrent pas les n’ai pas dit toujours ; c’est ce que nous exprimons dans notre langage pas bougé, à la condition que l’objet A qui était au contact de ce doigt n’ait donner cette explication ; tout ce que nous pouvons faire, c’est de constater que l’impression persiste souvent, mais pas toujours. Mais il suffit qu’elle persiste souvent pour que les séries σ nous apparaissent comme remarquables, pour que nous soyons amenés à ranger dans une même classe les séries Σ et Σ + σ, et de là à ne pas les regarder sommes-nous conduits à les considérer comme identiques à l’espace visuel, Mais avant d’aller plus loin, faisons une réflexion ; d’après ce qui précède, nous ne connaissons les points de l’espace ou plus généralement la situation finale de notre corps, que par les séries de sensations musculaires nous révélant les mouvements qui nous ont fait passer d’une certaine Mais il est clair que cette situation révélés par nos sensations musculaires ; mais rien ne nous fait connaître la situation initiale ; rien ne peut nous la faire distinguer de toutes les autres Nous sommes donc amenés à comparer les deux continus C et C′ ce premier espace correspondra à Σ et à Σ + σ, si σ est une série dont nous correspondra à Σ′ et Σ′ + σ′ si σ′ est une série qui ne fait pas bouger le doigt Ce qui nous fait donc distinguer les séries σ et σ′ c’est que les premières n’altèrent pas les impressions tactiles éprouvées par le doigt D et que les Or voici ce que nous constatons : au début mon doigt D′ éprouve une sensation A′ ; je fais des mouvements qui engendrent les sensations (Il faut bien entendu pour cela que S ait été convenablement choisie.) Ce qui veut dire que la série S + σ + S′, conservant les impressions tactiles du doigt D′ est l’une des séries que j’ai appelées σ′. l’on prend une série σ′ quelconque, S′ + σ′ + S sera une des séries que nous c’est-à-dire entre les deux points qui correspondent aux deux séries S + Σ + Or nous allons voir que cette condition est remplie. ou encore Σ + S + S′ + Σ′ = Σ + Σ′ ; mais il ne s’ensuit pas que l’on ait S + Σ + Σ′ = Σ ; car bien que nous ayons employé le signe de l’addition pour représenter la succession de nos sensations, il est clair que l’ordre de cette succession n’est pas indifférent : nous ne pouvons donc, comme dans Cela posé, pour que Σ et Σ′ correspondent à un même point M = M′ du Mais nous venons de constater que S + σ + S′ était une des séries σ′. ce qui veut dire que les séries S + Σ′ + S′ et S + Σ + σ′ correspondent à un doigt D ; et de même il arrive souvent, mais non toujours, que la série σ′ au point N du second espace, c’est que ces deux points sont identiques. Voilà comment nous sommes conduits à regarder ces deux espaces comme Ce que nous venons de dire de l’identité des deux espaces tactiles nous et à analyser les faits expérimentaux qui interviennent dans la genèse de Mais quelle que puisse être l’importance de ces faits, il y a une chose que nous ne devons pas oublier et sur laquelle j’ai Cela ne veut évidemment pas dire que Je sais bien qu’il est aisé de s’en tirer et que, si les faits ne se vérifient pas, on l’expliquera aisément en disant que les objets extérieurs ont bougé. Ces coups de pouce sont légitimes ; je n’en disconviens pas ; mais ils suffisent pour nous avertir que les propriétés de l’espace ne sont pas des En résumé, l’expérience ne nous prouve pas que l’espace a trois dimensions ; elle nous prouve qu’il est commode de lui en attribuer trois, parce que c’est ainsi que le nombre des coups de pouce est réduit au Tout au plus pourrait-il nous apprendre qu’il est commode de donner à l’espace géométrique trois dimensions pour qu’il mécaniques, par exemple, autrement que dans l’espace à trois dimensions ? Nous aurions ainsi une preuve expérimentale objective, pour ainsi dire, On sait que le grand physicien ne croyait pas à l’existence des forces proprement dites ; il supposait que les points matériels visibles sont Quoi que l’on doive penser de cette hypothèse, qu’on soit séduit par sa Au vrai sens du mot, il est clair que nous ne pouvons nous dimensions : 1° parce que ces espaces sont l’un et l’autre infinis et que nous ne pourrions nous représenter une figure dans l’espace, c’est-à-dire la partie dans le tout, sans nous représenter le tout, et cela est impossible, puisque ce tout est infini ; 2° parce que ces espaces sont l’un et l’autre des continus les cadres où nous enfermons nos sensations, étant limités, ne peuvent être Ainsi la question posée ne peut s’entendre que d’une manière ; est-il possible d’imaginer que, les résultats des expériences relatées plus haut trois dimensions ; d’imaginer, par exemple, que la sensation convergence des yeux ; ou bien que les expériences dont nous avons parlé une expérience, on imagine par cela même les deux résultats contraires Cela est possible, mais cela est difficile, parce que nous Sont-ce ces associations (ou du moins celles d’entre elles que nous Quand on dit que nos sensations sont « étendues » on ne peut vouloir qu’on ne peut pas dire que la sensation ne peut entrer dans la conscience sans entrer dans l’espace, mais qu’en fait elle n’entre pas dans la conscience Je ne puis comprendre non plus qu’on dise que l’idée de temps est représenter, au sens propre du mot, pour les raisons que j’ai dites. nous nous représentons sous le nom de droite est une image grossière qui Pourquoi a-t-on dit que toute tentative pour donner une quatrième idées de ces séries sont associées entre elles dans une trame très complexe, cette classification est beaucoup plus compliquée que cela, mais cela suffira sensations musculaires ont déjà été rangées dans une des trois classes ces trois classes, de sorte que ma quatrième dimension est ramenée à l’une que je sois enfermé dans une chambre entre les six parois infranchissables Mais bien entendu, répondra-t-on, il faut qu’on suppose que ces parois — Oui, mais il est évident que moi, j’ai le droit de bouger ; et alors les parois que nous supposons en repos absolu seront en relatif ne peut pas être quelconque, quand des objets sont en repos, leur mouvement relatif par rapport à des axes quelconques est celui d’un corps solide invariable ; or, les mouvements apparents que vous imaginez ne sont c’est l’expérience qui nous a appris les lois du mouvement d’un solide C’est elle qui lui donne les indications rôle que jouent dans sa genèse les séries de sensations musculaires. des séries qui peuvent se répéter, et c’est de leur répétition que vient le nombre ; c’est parce qu’elles peuvent se répéter indéfiniment que l’espace Et enfin nous avons vu à la fin du paragraphe 3 que c’est aussi pour cela que l’espace est relatif. assez dire que le temps est antérieur logiquement à l’espace. montré que ces canaux sont nécessaires à notre sens d’orientation ; mais les M. de Cyon est un physiologiste qui a illustré son nom par dans un des canaux tout entier, tandis que, physiologiquement, ce qui varie, peuvent nous faire connaître les nerfs des canaux, c’est la différence de pression sur les deux extrémités d’un même canal, et par là : indication qui est de beaucoup la plus importante ; sans doute parce que les mouvements que nous avons exécutés, et cela au même titre que les ou de la série Σ, nous aurions dû dire, non que c’étaient des séries de sensations musculaires seulement, mais que c’étaient des séries à la fois de suffiraient pas cependant ; car elles ne peuvent nous renseigner que sur les mouvements de la tête, elles ne nous apprennent rien sur les mouvements mathématiques et si ces délicates constructions que nous tirons tout entières Parmi les personnes qui font cette question, je dois faire une distinction ; pour avoir le temps de les acquérir, il faut négliger l’art et la science qui D’ailleurs, une science uniquement faite en vue des applications est Mais c’est assez nous occuper des praticiens intransigeants. Pour leur répondre, nous n’avons qu’à leur montrer les deux monuments Ils nous concéderaient sans doute que ces monuments valent bien la Mais ce n’est pas tout : elles ont un but philosophique et, j’ose le dire, t-elle pas le caractère esthétique, bien que les sens n’y prennent aucune mais n’est-ce pas ce qui arrive pour les arts les plus nobles ? C’est pourquoi je n’hésite pas à dire que les mathématiques méritent d’être cultivées pour elles-mêmes et que les théories qui ne peuvent être Mais il y a plus : ces deux buts sont inséparables et le meilleur moyen Toutes les lois sont donc tirées de l’expérience ; mais pour les énoncer, Et ce n’est pas une chose indifférente qu’une langue bien faite ; pour ne une langue, qui la traitent comme un objet d’art, en font en même temps un esthétique, contribue par cela même à créer une langue plus propre à Mais ce n’est pas tout ; la loi sort de l’expérience, mais elle n’en sort En un mot, pour tirer la loi de l’expérience, il faut généraliser ; c’est une Mais que ce mot est vague ! Qui nous a appris à connaître les analogies véritables, profondes, celles C’est lui qui nous a enseigné à nommer du même nom des êtres qui ne diffèrent que par la matière, à nommer du même nom par utilisés par les physiciens anglais, bien des personnes n’y verraient sans que les apparences séparent, ils nous auraient déjà rendus plus aptes à Voilà les services que le physicien doit attendre de l’analyse, mais pour que cette science puisse les lui rendre, il faut qu’elle soit cultivée de la mouvement, les deux lois ne diffèrent que par la forme ; on passe de l’une à une expérience nouvelle qui est venue les infirmer. Mais en les envisageant sous un biais nouveau, Maxwell a reconnu que On sait que les vues a priori de Maxwell ont attendu vingt ans une les vecteurs se sont introduits dans l’analyse, c’est par la théorie des Maxwell en un mot n’était peut-être pas un habile analyste, mais cette comme cela que nous en tirerons quelque chose d’utile. physiquement aucun rapport ni apparent, ni réel, de telle sorte que les lois Ainsi les analogies mathématiques, non seulement peuvent nous faire pressentir les analogies physiques, mais encore ne cessent pas d’être utiles, ne tarderait pas à se lasser, nous entraînerait sans doute bien loin les uns des préservera aussi d’un danger bien plus redoutable ; elle nous empêchera de choisir entre les problèmes qui se présentaient en foule ; elle nous en a Pour la suivre, nous devons prendre des chemins que c’est en comparant les aspects différents des choses que nous pourrons en C’est le monde extérieur qui nous a imposé le continu, que nous avons L’analyse nous déroule des perspectives infinies que l’arithmétique ne des nombres, où règne l’imprévu, la vue est pour ainsi dire arrêtée à chaque rigueur, et par conséquent pas de vérité mathématique ; que partout il se Voilà ce que nous devons au continu et par conséquent à la nature une histoire analogue ; elle s’est développée surtout par et pour la physique. Mais elle peut prendre bien des formes ; car une pareille équation ne suffit sans elles, nous ne connaîtrions pas les équations aux dérivées partielles. ce n’est pas une corvée qu’ils nous imposent, c’est nous au contraire qui Mais ce n’est pas tout ; la physique ne nous donne pas seulement l’occasion de résoudre des problèmes ; elle nous aide à en trouver les J’ai parlé plus haut de l’équation de Laplace que l’on rencontre dans une foule de théories physiques fort éloignées les unes des autres. que se sont faites toutes les découvertes importantes ? Combien de vérités que les analogies physiques nous permettent de pressentir et que nous ne sommes pas en état d’établir par un raisonnement Ce sont autant de conquêtes assurées pour les chercheurs qui viendront La physique, d’autre part, ne nous fournit pas seulement des solutions ; elle nous fournit encore, dans une certaine mesure, des raisonnements. Il est vrai que les raisonnements de ce genre ne sont pas rigoureux, au n’est pas assez rigoureuse pour l’analyste, peut-elle suffire au physicien ? semble qu’il ne peut y avoir deux rigueurs, que la rigueur est ou n’est pas, et que, là où elle n’est pas, il ne peut y avoir de raisonnement. Or les nombres que le physicien mesure par l’expérience ne lui sont discontinue, et en même temps elle diffère aussi peu que l’on veut d’une Le physicien peut donc supposer à son gré, que la fonction étudiée est Il peut toujours raisonner comme si toutes les fonctions qui Ainsi l’aperçu qui suffit à la physique n’est pas le raisonnement physiques que cette transformation est aujourd’hui facile. est une des sciences qui coûtent le plus cher : le moindre instrument coûte C’est elle qui nous montre combien Mais ce que je voudrais vous montrer avant tout, c’est à quel point parce que c’est elle qui nous a fait une âme capable de comprendre la bien, nous admettrons que ces nuages sont phosphorescents et qu’ils faire des hypothèses, une hypothèse de plus ne nous coûtera pas davantage. C’est que les astres ne nous envoient pas seulement cette lumière visible et grossière qui frappe nos yeux de chair, c’est d’eux aussi que nous vient et exigeants, et, pour agir sur le monde, il cherchait à se les concilier par des qu’elle ne peut récuser, parce que ce sont les siennes ; ces lois, nous ne lui Croit-on que, sans les leçons des astres, sous le ciel perpétuellement Et d’abord, c’est l’Astronomie qui nous a appris qu’il y a des lois. bien vu que cette multitude de points lumineux n’est pas une foule confuse régulier, lui aussi obéit à des lois immuables, mais elles sont plus Si nous n’avions pas connu les astres, que la risée du vulgaire ; ne voyons-nous pas que, même de nos jours, les montrait que la Nature obéit à des lois ; il ne leur restait plus qu’à savoir à des lois, mais que ces lois sont inéluctables, qu’on ne transige pas avec approximatives, c’est parce que nous les connaissons mal. déterminent que les grands traits des phénomènes. Mais ces lois ne sont-elles pas locales, variables d’un point à l’autre, comme celles que font les hommes ; ce qui est la vérité dans un coin de temps, si elles ne sont pas de simples habitudes, transitoires, par coniques ; ainsi, si loin que porte le télescope, il n’atteint pas les limites du Il n’est pas jusqu’à la simplicité de cette loi qui ne soit une leçon pour nous ; que de phénomènes compliqués contenus dans les deux lignes de son énoncé ; les personnes qui ne comprennent pas la Mécanique céleste consacrés à cette science ; et alors il est permis d’espérer que la C’est donc l’Astronomie qui nous a montré quels sont les caractères généraux des lois naturelles ; mais, parmi ces caractères, il y en a un, le plus C’est encore ainsi que pensait Kepler lui-même quand, par exemple, il cherchait si les distances des planètes au Soleil n’avaient pas d’absurde, mais elle eût été stérile, puisque ce n’est pas ainsi que la Nature C’est Newton qui nous a montré qu’une loi n’est qu’une relation Toutes les autres lois, découvertes depuis, ne sont pas autre chose, ce sont, en somme, des équations différentielles ; mais c’est C’est elle aussi qui nous a le mieux appris à nous défier des apparences. Les anciens croyaient que tout était fait pour l’homme, et il faut croire que cette illusion est bien tenace, puisqu’il faut sans cesse la combattre. même, c’est ce que ne peut faire celui qui rapporte tout à lui-même. que la Terre n’est qu’une des plus petites planètes du Système solaire, et que le Système solaire, lui-même, n’est qu’un point imperceptible dans les En même temps, l’Astronomie nous apprenait à ne pas nous effrayer des Ciel, mais pour connaître la Terre elle-même ; et cela n’était pas aussi facile qu’elle nous oblige à imaginer des objets beaucoup plus grands ou beaucoup plus petits que ceux que nos sens sont capables de nous montrer, et nous ne comprenons plus ces scrupules qui arrêtaient nos devanciers et c’est parce que nous avons vu le Ciel imagination, comme l’œil de l’aigle que le Soleil n’éblouit pas, peut Avais-je tort de dire que c’est l’Astronomie qui nous a fait une âme privé d’astres, la Terre elle-même eût été pour nous éternellement ceux qui n’estiment que les applications pratiques. je ne dis pas : la Science est utile, parce qu’elle nous apprend à construire des machines ; je dis : les machines sont utiles, parce qu’en travaillant pour nous, elles nous laisseront un jour plus de temps pour faire de la science. Mais enfin il n’est pas indifférent de remarquer qu’entre les deux points de Ne venons-nous pas de voir que c’est par l’Astronomie que, pour Cela, il s’en est rendu compte, parce que c’était fait. Mais comment n’a-t-il pas compris que ce qui restait à faire n’était pas physique, qu’il semble condamner, a déjà commencé à nous donner des positivisme voulait nous interdire, et on y a trouvé des corps qui existent sur n’étaient pas dus à quelque hasard qui aurait rapproché des atomes plus ténus pour en construire l’édifice plus complexe que les chimistes nomment maintenant qu’il n’en est rien, que les lois de notre chimie sont des lois générales de la Nature et qu’elles ne doivent rien au hasard qui nous a fait qu’elle pouvait leur donner, et maintenant que le Ciel nous a procuré les Après ce que nous venons de dire, est-il Peut-être même les astres nous apprendront-ils un jour quelque chose Si ces princes n’avaient pas été si crédules, nous continuerions peut- être à croire que la Nature obéit au caprice, et nous croupirions encore dans Quels sont les problèmes qu’elle est amenée à se sont les questions que nous sommes forcés de soulever, en abordant Nous sommes assurés que la malade n’en mourra pas et même nous pouvons espérer que cette crise sera salutaire, car l’histoire du passé mais séparées par des distances tellement immenses qu’elles ne nous apparaissent que comme des points matériels ; ces points s’attirent en raison inverse du carré des distances et cette attraction est la seule force qui influe Mais si nos sens étaient assez subtils pour nous montrer tous les détails des corps qu’étudie le physicien, le spectacle que Là aussi nous verrions des points matériels séparés les uns des autres par fonction de la distance n’est peut-être pas la loi de Newton, mais c’est une et Maxwell, Maxwell lui-même, ne dit-il pas quelque part que les atomes Parmi les théories de cette époque, une seule fait exception, celle de l’écheveau compliqué que nous donnent nos sens ; qu’il faut avancer pas à vouloir brûler les étapes, mais ils croient que quand on arrivera à ces Cette conception n’a pas non plus été inutile ; elle nous a rendu un pour ainsi dire et immuable ; ou bien c’était comme un modèle que la Une loi, pour nous, ce n’est plus cela du tout ; physique, c’est précisément en copiant autant que possible cette loi de certains principes généraux qui ont précisément pour objet de nous toutes les parties nous sont profondément cachées ; mais en observant le de ce principe, tirer des conclusions qui resteront vraies quels que soient les certainement le plus important, mais ce n’est pas le seul, il y en a d’autres Le principe de la relativité, d’après lequel les lois des phénomènes phénomènes physiques suffit pour nous en apprendre ce que nous pouvons de la Mécanique et cela nous suffit pour établir les équations du champ l’histoire de la Physique Mathématique et nous n’en sommes pas encore C’est la Physique Mathématique de nos pères qui nous a familiarisés peu à peu avec ces divers principes, qui nous a habitués à les reconnaître été conduit ainsi à les regarder comme des vérités expérimentales ; la Les cadres ne se sont donc pas brisés parce qu’ils étaient élastiques ; mais ils se sont élargis ; nos pères, qui les avaient établis, n’avaient pas travaillé en vain ; et nous reconnaissons dans la science d’aujourd’hui les l’énergie qui est en cause ; tous les autres principes sont également en C’est le seul qui ne se présente pas comme une conséquence immédiate de directement cette hypothèse, du moins ne pas se concilier avec elle sans un Or, il n’en est pas ainsi dans la Nature, et c’est précisément ce que le principe de Carnot nous enseigne, la chaleur peut mais celui qui l’a vu le plus nettement, dans un livre trop peu lu parce qu’il est un peu difficile à lire, c’est Gibbs, dans ses principes de Mécanique c’est parce que nos yeux sont trop grossiers que nous ne distinguons pas les nous ne savons pas les forcer à se séparer ; le démon imaginaire de Y peut-il revenir de lui-même, cela n’est pas que nous attendions longtemps le concours des circonstances qui il a vu bientôt que les corps inanimés ne dansaient pas avec moins d’ardeur que les autres ; il a alors passé la main aux physiciens. température, et dans le liquide des courants intérieurs qui produisent les cette explication est insoutenable, que les mouvements deviennent d’autant plus vifs que les particules sont plus petites, mais qu’ils ne sont pas renoncer pour cela à la conservation de l’énergie, mais nous voyons sous Les corps trop gros, ceux qui ont, par atomes en mouvement, mais ils ne bougent pas parce que ces chocs sont très nombreux et que la loi du hasard veut qu’ils se compensent ; mais les particules plus petites reçoivent trop peu de chocs pour que cette est une conséquence nécessaire de l’hypothèse des forces centrales, mais il Je sais bien ce qu’on va dire, ce n’est pas sa vitesse absolue que l’on Ne voit-on pas que du principe ainsi compris on ne pourra plus rien tirer ? expliquer cette obstination que les mathématiciens sont forcés aujourd’hui échangent des signaux, mais comme ils savent que la transmission de la mais à une condition, c’est que les deux stations soient fixes. contraire, la durée de la transmission ne sera pas la même dans les deux translation uniforme, ou plutôt c’est ce qui arriverait pour les composantes ces corps se repoussent, mais en même temps, si tout est entraîné dans une électrostatique et la répulsion totale est plus faible que si les deux corps Mais comme, pour mesurer cette répulsion, nous devons l’équilibrer par une autre force, et que toutes ces autres forces sont réduites ainsi arrangé, mais tous les doutes sont-ils dissipés ? pouvait communiquer par des signaux qui ne seraient plus lumineux et dont Aussi ne devons-nous pas nous étonner de retrouver ici les mêmes J’ai déjà montré plus haut que les nouvelles théories faisaient bon agissent donc les uns sur les autres, mais cette action n’est pas directe, elle électrons, et qui ignorerait ceux de l’éther qu’il ne peut pas voir ? n’atteint donc le second électron que quand le premier est depuis longtemps il envoie de l’énergie dans tous les sens ; mais nous est rempli, non seulement d’éther, mais d’air, ou même, dans les espaces peut supposer aussi que les mouvements de la matière proprement dite sont exactement compensés par ceux de l’éther, mais cela nous amènerait aux toujours la faculté d’imaginer des mouvements hypothétiques qui les Mais s’il peut tout expliquer, c’est qu’il ne nous permet de rien prévoir, il ne nous permet pas de choisir entre les différentes hypothèses serait naturel d’imaginer que les vitesses des divers atomes d’éther doublent vitesses modérées, mais qu’il cesserait de l’être pour des corps animés de avec des vitesses, plus petites sans doute que celle de la lumière, mais qui Mais quand on a vu que ces vitesses se rapprochaient de Il y a bien encore une ressource : les éléments ultimes des corps sont des Et ce n’est pas seulement un principe qu’il s’agit de sauver, ce sont les Eh bien, ainsi que nous uniforme ; ce n’est pas assez, il ne suffit pas que cela ait lieu pour les forces réelles, il faut encore qu’il en soit de même pour les forces d’inertie ; il faut donc, dit-il, que les masses de toutes les particules soient influencées par une translation au même degré que les masses électromagnétiques des Ainsi les masses mécaniques doivent varier d’après les mêmes lois que les masses électrodynamiques ; elles ne peuvent donc pas être constantes. C’est pourquoi j’ai dit plus haut que les expériences sur les entraîné lui-même dans une translation dont il ne se doute pas, aucune servirait pas des mêmes horloges qu’un observateur fixe, mais bien fait plus de bruit que les précédents et il est dans toutes les mémoires. c’est bien court, mais vous voyez que nous sommes du moins certain d’être aux principes, on ne les rencontre que dans les infiniment petits ; il faut le microscope pour voir le mouvement brownien ; les électrons sont bien on peut les appliquer en toute sûreté ; nous avons de quoi employer notre — Et pourtant ces doutes, est-il bien vrai que dire ce n’est pas seulement la physique expérimentale qui les a fait naître, la expérimentateurs qui ont vu le radium dégager de l’énergie, mais ce sont les théoriciens qui ont mis en évidence toutes les difficultés soulevées par la Il faut qu’ils soumettent à la critique toutes ces vues nouvelles que je Ainsi au lieu de supposer que les corps en mouvement subissent une contraction dans le sens du mouvement et que cette contraction est la même quelle que soit la nature de ces corps et les forces auxquelles ils sont On pourrait imaginer, par exemple, que c’est l’éther qui se matériel qui le pénètre, que, quand il est ainsi modifié, il ne transmet plus nous fournisse un jour des données sur ce point ; c’est elle, en somme, qui a C’est du moins ce qui est vrai en première approximation, mais il n’en variation du mouvement, variation qui est bien connue, puisque c’est le serait pas tout à fait la même pour toutes les Étoiles, et que les différences est peut-être beaucoup plus grande que sa vitesse relative par rapport au l’aberration ; Michelson nous a montré, je vous l’ai dit, que les procédés Quoiqu’il en soit, les données que l’Astronomie nous fournira dans ce être abordée par bien des côtés, mais parmi les chemins qui y conduisent, il Ce sont les mouvements des électrons mais on n’est pas entré plus avant ; pourquoi les raies du spectre sont-elles Ces lois ont été étudiées par les Les lois sont plus simples, mais elles sont de toute autre nature et pour De cela on n’a pas encore rendu compte, et je crois que c’est là un des C’est là une tentative fort intéressante, mais pas encore tout à fait pourquoi les électrons ne se comportent pas comme la matière qui nous est sera peut-être plus facile de la concilier avec les principes. tous ces efforts échouent, et, tout compte fait, je ne le crois pas ; que faudra- est évidemment toujours possible et je ne retire rien de ce que j’ai dit plus chercher querelle, n’avez-vous pas écrit que les principes, quoique d’origine que les conquêtes les plus récentes de l’expérience mettent ces principes en On l’a tenté de bien des manières ; mais il y en a une entre autres que je voudrais vous faire remarquer ; ce n’est pas l’explication qui tend aujourd’hui à prévaloir, mais c’est une de celles qui ont été proposées. que dans telle ou telle circonstance nous pouvions compter sur telle quantité peut élever que des constructions éphémères qu’elle est bientôt forcée de Comme je vous l’ai dit, nous avons déjà passé par une crise semblable. Je vous ai montré que, dans la seconde physique mathématique, celle des en sera encore de même si nous devons en connaître une troisième. peut-être est-ce la théorie cinétique des gaz qui va prendre du Alors les faits qui d’abord nous apparaissaient comme simples ne seraient plus que les résultantes d’un très grand nombre de faits élémentaires que les lois seules du hasard Peut-être aussi devrons-nous construire toute une mécanique nouvelle serait vraie pour les vitesses qui ne seraient pas très grandes, de sorte qu’on pas à regretter d’avoir cru aux principes, et même, comme les vitesses trop dire, pour terminer, que nous n’en sommes pas là et que rien ne prouve La Science n’est faite que de conventions, et c’est uniquement à cette fortiori, les lois sont l’œuvre artificielle du savant ; la science ne peut donc rien nous apprendre de la vérité, elle ne peut nous servir que de règle nominalisme ; tout n’est pas faux dans cette théorie ; il faut lui réserver son « le discours », se condamne par cela même à être intransmissible, c’est une Ne serait-ce pas cet animal qui est le ressemblant, devons-nous conclure que la meilleure peinture soit de ne pas conclure au « primat » de l’action ; toujours est-il que c’est notre science et pour elle, il n’y a pas de doute ; par définition, pour ainsi dire, C’est ainsi que les hommes, désireux de se divertir, ont institué des La règle du tric-trac est bien une règle d’action comme la science, mais Science est une règle d’action qui réussit, au moins généralement et, sur de l’or ; cela aurait été aussi une règle, seulement elle n’aurait pas Si donc les « recettes » scientifiques ont une valeur, comme règle d’action, c’est que nous savons qu’elles réussissent, du moins en général. démenties par l’événement ; cela prouve que la science est imparfaite et si j’ajoute qu’elle le restera toujours, je suis certain que c’est là une prévision le progrès est lent, mais continu, de sorte que les savants, quoique de plus plus souvent qu’on ne croit, que les comètes jouaient parfois des tours aux astronomes, que les savants, qui apparemment sont des hommes, ne De ce qu’elle est « vécue », c’est-à-dire de ce que nous l’aimons et que nous croyons en elle ? Les alchimistes avaient des recettes pour faire de qui sont les bonnes, bien que notre foi soit moins vive, parce qu’elles permet pas de prévoir, et alors elle est sans valeur comme règle d’action ; alors elle n’est pas sans valeur comme moyen de connaissance. On ne peut même pas dire que l’action soit le but de la science ; devons- nous condamner les études faites sur l’étoile Sirius, sous prétexte que nous cette affirmation que le savant crée le fait ; c’en était en même temps le point essentiel et c’est un de ceux qui ont été le plus discutés. Peut-être, dit-il (je crois bien que c’était là une concession), n’est-ce pas n’est pas un fait, et il a répliqué : c’en était un pour Galilée qui l’affirmait Toujours est-il que ce n’est pas un fait Qu’on me permette de citer deux exemples qui nous éclaireront peut- pourrai les corriger que par une étude approfondie de leurs causes. n’est pas entre ces deux subdivisions que la distance sera la moins grande ; l’affirmation ; il fait noir, que cette impression lui arrache, il est nécessaire En un sens c’est la première qui est le seul vrai fait brut, et la plus que d’un nombre fini de termes pour exprimer les nuances en nombre exprime bien les impressions que j’éprouve en assistant à une éclipse ; mais Il n’en serait pas de même pour une proposition pas dire que cet énoncé soit vrai, au sens propre du mot, puisqu’il ne saurait décret que je porte, ce n’est pas une constatation qui s’impose à moi. et si l’on me demande si le fait que je constate rentre ou ne rentre pas dans postulats qui sont des conventions, un théorème ne peut plus être que vrai Mais pour répondre à cette question : ce théorème est-il vrai ? n’est plus au témoignage de mes sens que j’aurai recours, mais bien au L’énoncé d’un fait est toujours vérifiable et pour la vérification nous seront mes sens qui l’auront faite, ce ne sera pas vous en me disant : c’est en la même question à mon aide qui comprend ma langue, il saura que cela qu’il est parlé par un bien moins grand nombre de personnes. C’est parce que j’admets une loi rendu compte que je pourrais exprimer par le même énoncé deux faits aussi En conclura-t-on que les faits de la vie quotidienne sont l’œuvre des maintenant que, par impossible, la loi que nous croyions vraie, ne le soit pas y aura deux faits distincts, l’un directement observé et qui est vrai, l’autre On pourra dire à la rigueur que le second, c’est nous Mais si nous pouvons dire que le fait en question est faux, n’est-ce pas justement parce qu’il n’est pas une création libre et arbitraire de notre Si j’ai fait une fausse réponse, c’est parce que j’ai voulu répondre cherche dans la Connaissance des Temps, je vois que l’éclipse était C’est même pour cela qu’ils nous n’avons pas le droit de donner le même nom à la rotation de la Terre, qui était l’objet de leur discussion, et aux faits bruts ou scientifiques que c’est toujours le même fait exprimé dans un autre langage. En résumé, tout ce que crée le savant dans un fait, c’est le langage dans J’ai dit que le fait scientifique est la traduction d’un jugé que les trois lectures α, β, γ faites sur mon horloge à trois moments Mais j’ai ainsi épuisé ma puissance ; je ne puis pas faire que cette une prédiction ce n’est pas par un effet de notre libre activité. seulement que tel énoncé de fait est plus brut ou, au contraire, plus Si des faits nous passons aux lois, il est clair que la part de la libre C’est ce que nous allons examiner. Toutes les fois que la condition ne sera pas Il est clair que si les lois se réduisaient à cela, elles ne pourraient servir à Sans doute, on pourra découvrir que la loi est fausse. confondus sous le nom de phosphore ; ces deux corps ne diffèrent que par Ce ne serait évidemment pas la première fois que les les deux corps n’auraient probablement pas identiquement même densité, Peu importe d’ailleurs ; il suffit de remarquer qu’il y a une loi, et que Dira-t-on que, si nous ne connaissons pas sur la Terre un corps qui ne fonde pas à 44° tout en ayant les autres propriétés du phosphore, nous ne cela peut se soutenir, et on conclurait alors que la loi en question, qui peut alors est une loi qui peut être vraie ou fausse, mais qui ne se réduit plus à deux attitudes ; ils pourront dire que la gravitation ne varie pas exactement comme l’inverse du carré des distances, ou bien ils pourront dire que la gravitation n’est pas la seule force qui agisse sur les astres et qu’il vient s’y Nous pouvons décomposer cette proposition : (1) les astres suivent la loi gravitation est la seule force qui agisse sur les astres. C’est grâce à ces artifices que par un nominalisme inconscient, les Et alors nous avons une relation entre A et C que nous pouvons supposer rigoureuse et qui est le principe ; et une autre entre C et est clair que si toutes les lois avaient été transformées en principes, il ne et une loi, mais il est bien clair par là que, si loin que l’on pousse cette Le Roy. Une revue rapide des sciences nous fera mieux comprendre quelles sont L’attitude nominaliste n’est justifiée que quand elle est L’expérience nous fait connaître des relations entre les corps ; c’est là le eux un intermédiaire qui est l’espace, et nous envisageons trois relations avec la figure B′ de l’espace, celle des deux figures A′ et B′ entre elles. compliquée, mais différait peu de celle de A′ et B′ qui est simple : de sorte que cette relation compliquée peut être remplacée par la relation simple entre A′ et B′, et par deux autres relations qui nous font connaître que les Par exemple si A et B sont deux corps solides naturels qui se Les lois des déplacements relatifs de ces nous ajouterons ensuite que le corps A, qui diffère toujours très peu de A′, nous avons maintenant deux lois qui expriment les relations de A et A′ ; de Nous avons une relation entre deux corps A et B que nous avons remplacée par une relation entre deux figures A′ et B′ ; mais cette même relation entre les deux mêmes figures A′ et B′ aurait pu tout aussi bien remplacer avantageusement une relation entre deux autres C’est pour cela que la géométrie est si précieuse. Et alors qu’on ne vienne pas dire : mais c’est la preuve que la géométrie est une science expérimentale ; en séparant ses principes de lois d’où on les a extraits, vous la séparez artificiellement elle-même des sciences qui lui Les autres sciences ont également des principes et cela ainsi dire est moins grand, on n’a plus de raison de les séparer de la Puisque l’énoncé de nos lois peut varier avec les conventions que nous adoptons, que ces conventions peuvent modifier même les relations brusquement transportés dans notre monde à nous, ils observeraient les mêmes lois que nous, mais ils les énonceraient d’une manière toute deux énoncés, mais c’est parce que ces êtres ne diffèrent pas encore assez Il est clair alors qu’il n’y a pas de mots communs à toutes les langues, et nous ne pouvons avoir la de parler ; pas plus que nous ne pouvons construire une phrase qui soit Mais nous avons des règles fixes qui comprendre les Allemands même sans avoir appris l’allemand, mais c’est commun, puisque les uns et les autres sont des hommes. C’est possible, mais j’observerai d’abord que ce peu d’humanité qui ces êtres rejetaient notre logique et n’admettaient pas, par exemple, le notre logique, nous pourrons conclure alors que leur langage, quelque formules ; c’est ce qui est arrivé par exemple pour la loi de Mariotte. Prenons la loi de la gravitation qui est la moins imparfaite de toutes les Elle nous permet de prévoir les mouvements des planètes. J’annonce alors avec une quasi-certitude que les coordonnées de Saturne beaucoup plus grande que celle de tous les astres connus et dont l’action distances que son influence soit restée jusqu’ici insensible pour nous, elle notre système solaire des perturbations énormes que nous n’aurions pu par une autre plus approchée et plus probable, que cette loi nouvelle ne sera provisoire, mais elle doit être remplacée un jour par une autre loi Il me semble que la théorie cinétique des gaz va nous fournir un On sait que dans cette théorie, on explique toutes les propriétés des gaz par une hypothèse simple ; on suppose que toutes les molécules gazeuses se trajectoires rectilignes qui ne sont troublées que quand une molécule passe Les effets que nos sens grossiers nous permettent d’observer sont les effets moyens, et dans ces improbable qu’ils ne se compensent pas ; de sorte que les phénomènes Mais cette compensation des écarts n’est que probable. nombre est tellement grand que pour écrire seulement le nombre de ses l’adopte, la loi de Mariotte ne nous apparaîtra plus que comme contingente, Loin de là, ce sont les plus intransigeants des mécanistes. confusion, qu’il n’y a pas là non plus une évolution de la loi de Mariotte On dit souvent : qui sait si les lois n’évoluent pas et si on ne Et comment se fait cette déduction, c’est par le moyen des lois supposées Newton, et c’est ce qu’il fait quand il construit des éphémérides ; et il peut dans l’avenir, puisque cette loi est précisément son point de départ ; ils ne De sorte que si les lois de la On dira peut-être que cette hypothèse pourrait conduire à des résultats se lever de deux manières : on peut supposer que les lois actuelles de la nature ne sont pas exactement celles que nous avons admises ; ou bien on peut supposer que les lois de la nature sont actuellement celles que nous avons admises, mais qu’il n’en a pas toujours été ainsi. Il est clair que les lois actuelles ne seront jamais assez bien connues Évidemment ce n’est pas là ce que Ce qui reste, c’est que tel antécédent, accompagné de telle qu’approchée et probable, doit être remplacée par une autre loi plus Nous retombons donc toujours sur ce même processus que nous avons genre, elle ne dirait pas que ce sont les lois qui ont évolué, mais les unes nous apparaissent comme exactes, c’est que nous les avons Cette transformation, nous l’avons faite librement, et comme le caprice qui nous avons communiqué cette contingence à la loi elle-même. puisque c’est librement que nous devenons déterministes. d’induction ; je sais fort bien que je n’y réussirai pas ; il est aussi difficile de Pour qu’on pût dire que le même nous que les antécédents A et A′ sont « peu différents » ? circonstances peut s’exprimer par un nombre, et que ce nombre ait dans les relativement clair ; le principe signifie alors que le conséquent est une C’est en effet ce que les L’expérience nous a fait connaître certains points de cette Sans doute, si cette courbe est trop capricieuse, nous De plus, parmi les circonstances d’un phénomène, il y en a que nous Nous admettons par exemple que l’état des corps éloignés ne effet semble s’imposer, mais il est des cas où le choix de ces circonstances Supposons que nous puissions embrasser la série de tous les envisager ce que l’on pourrait appeler les séquences, je veux dire des Nous reconnaîtrions alors que parmi ces séquences il n’y en a pas deux Mais, si le principe d’induction tel que nous qu’on pourra classer les unes à côté des autres. C’est tout ce que l’analyse le Roy que tout à l’heure nous semblions rejeter : c’est librement qu’on est Et d’abord que devons-nous entendre par c’est que ce monde nous est commun avec d’autres êtres pensants. communications que nous avons avec les autres hommes, nous recevons d’eux des raisonnements tout faits ; nous savons que ces raisonnements ne ces êtres raisonnables ont vu la même chose que nous ; c’est comme cela transmis de l’un à l’autre, et comme cette transmission ne peut se faire que Les sensations d’autrui seront pour nous un monde éternellement fermé. Il est clair que nous n’en Les sensations sont donc intransmissibles, ou plutôt tout ce qui est n’en est pas de même des relations entre ces sensations. en question), mais on comprend que je ne sais plus qui se soit laissé Tout en faisant des réserves sur cette proposition paradoxale, nous et par conséquent que les relations entre les sensations peuvent seules avoir On dira peut-être que l’émotion esthétique, qui est commune à tous les hommes, est la preuve que les qualités de nos sensations sont aussi les mêmes pour tous les hommes et par là sont objectives. réfléchit, on verra que la preuve n’est pas faite ; ce qui est prouvé, c’est que cette émotion est provoquée chez Jean comme chez Pierre par les sensations mieux parce que cette émotion est provoquée, non par les qualités mêmes des sensations, mais par l’harmonieuse combinaison de leurs relations dont Rien n’est objectif que ce qui est identique pour tous ; or on ne peut parler d’une pareille identité que si une comparaison est on n’avait soutenu dernièrement que la physique n’est pas une science c’est avant tout une classification, une façon de rapprocher des faits que les nous venons de le dire, c’est dans les relations seulement que l’objectivité comme isolés les uns des autres. Dire que la science ne peut avoir de valeur objective parce qu’elle ne nous fait connaître que des rapports, c’est raisonner à rebours, puisque précisément ce sont les rapports seuls qui peuvent être regardés comme Les objets extérieurs, par exemple, pour lesquels le mot objet a été insaisissables parce que ce ne sont pas seulement des groupes de sensations, science, cela ne veut pas dire : la science nous fait-elle connaître la véritable mais cela veut dire ; nous fait-elle connaître les connaître la nature des choses ; mais rien n’est capable de nous la faire tout ce qu’elle peut nous donner, ce n’est qu’une image grossière. peut-elle nous faire connaître les véritables rapports des choses ? ce que nous avons dit plus haut sur les conditions de l’objectivité. les mêmes pour tous ? seront-ils encore les mêmes pour ceux qui viendront Il est clair qu’ils ne sont pas les mêmes pour le savant et pour l’ignorant. Mais peu importe, car si l’ignorant ne les voit pas tout de suite, le savant peut arriver à les lui faire voir par une série d’expériences et de L’essentiel est qu’il y a des points sur lesquels tous ceux qui On peut se demander si les rapprochements que fait la c’est une question de fait, et la science a déjà assez vécu pour qu’en Au premier abord il nous semble que les théories Mais si l’on y regarde de plus près, on voit que ce qui succombe ainsi, ce sont les théories proprement dites, celles qui prétendent nous apprendre ce que sont les choses. Mais il y a en elles quelque chose qui le la théorie électromagnétique qui nous enseigne que la lumière est un N’examinons pas si on pourrait les concilier et dire que la lumière en tout cas que ce mouvement ne serait pas identique à celui qu’admettaient C’est ce qui explique comment on voit les physiciens actuels Eh bien, elle est précisément la même que pour notre croyance aux Ces derniers sont réels en ce que les sensations qu’ils nous font éprouver nous apparaissent comme unies entre elles par je ne sais quel nous révèle entre les phénomènes d’autres liens plus ténus mais non moins mais dès qu’on les a remarqués, il n’y a plus moyen de ne pas les voir ; ils ne sont donc pas moins réels que ceux qui donnent leur réalité aux objets uns ne doivent pas périr avant les autres. On peut dire par exemple que l’éther n’a pas moins de réalité qu’un évidemment pas moins de valeur l’une que l’autre. Et même les synthèses scientifiques ont en un sens plus de réalité que est vrai enfin que cela ne peut pas être par hasard. En résumé, la seule réalité objective, ce sont les rapports des choses tourne, et, il est plus commode de supposer que la Terre tourne, ont un seul Mais il y a mieux ; dans le même langage on dira très bien : ces deux Mais après ce que nous venons d’expliquer dans la quatrième partie, Une théorie physique, avons-nous dit, est pas cinématiquement plus vraies l’une que l’autre. Mais si l’une nous révèle des rapports vrais que l’autre nous dissimule, eux aucun lien ; pour le Copernicien, ils sont engendrés par une même Voilà pour la rotation de la Terre sur elle-même ; que dire de sa Est-ce par hasard que toutes les planètes lien entre les trois phénomènes et cela encore est vrai bien qu’il n’y ait pas Dans le système de Ptolémée, les mouvements des corps célestes ne Les rapports intimes que la Mécanique Céleste nous révèle entre tous les phénomènes célestes sont des rapports vrais ; affirmer qu’elle n’ait pas tout à fait le même sens que pour le vulgaire, et que son Nous ne pouvons connaître tous les faits et il faut choisir ceux qui sont Les savants, au contraire, croient que certains faits sont plus intéressants que d’autres, parce qu’ils complètent une harmonie raison, et, par exemple, j’ai montré plus haut quelle est la haute valeur des pratiques, mais parce qu’ils sont les plus instructifs de tous. vaut bien la vie pour la vie, si la vie n’est que misère ; et même le bonheur pour le bonheur, si l’on ne croit pas que tous les plaisirs sont de même travailler, nous devons payer notre place au spectacle, mais c’est pour voir ; ou tout au moins pour que d’autres voient un jour. Tout ce qui n’est pas pensée est le pur néant ; puisque nous ne pouvons penser que la pensée et que tous les mots dont nous disposons pour parler que la pensée, c’est donc une affirmation qui ne peut avoir de sens. Mais c’est cet éclair qui est tout. Au lieu de dire que nous rapportons l’espace à des axes invariablement liés à notre corps, peut-être vaudrait-il mieux dire, conformément à ce qui précède, que nous le rapportons à des
La Valeur de la Science     par   Henri Poincaré   Membre de l’Institut         Paris — 1908   Table des matières   INTRODUCTION PREMIÈRE PARTIE LES SCIENCES MATHÉMATIQUES CHAPITRE PREMIER L’intuition et la Logique en Mathématiques CHAPITRE II La mesure du Temps CHAPITRE III La Notion d’Espace CHAPITRE IV L’Espace et ses Trois Dimensions DEUXIÈME PARTIE LES SCIENCES PHYSIQUES CHAPITRE V L’Analyse et la Physique. CHAPITRE VI L’Astronomie CHAPITRE VII L’Histoire de la Physique mathématique. CHAPITRE VIII La Crise actuelle de la Physique mathématique. CHAPITRE IX L’Avenir de la Physique mathématique TROISIÈME PARTIE LA VALEUR OBJECTIVE DE LA SCIENCE CHAPITRE X La Science est-elle artificielle ? CHAPITRE XI La Science et la Réalité INTRODUCTION La recherche de la vérité doit être le but de notre activité ; c’est la seule fin qui soit digne d’elle. Sans doute nous devons d’abord nous efforcer de soulager les souffrances humaines, mais pourquoi ? Ne pas souffrir, c’est un idéal négatif et qui serait plus sûrement atteint par l’anéantissement du monde. Si nous voulons de plus en plus affranchir l’homme des soucis matériels, c’est pour qu’il puisse employer sa liberté reconquise à l’étude et à la contemplation de la vérité. Cependant quelquefois la vérité nous effraye. Et en effet, nous savons qu’elle est quelquefois décevante, que c’est un fantôme qui ne se montre à nous un instant que pour fuir sans cesse, qu’il faut la poursuivre plus loin et toujours plus loin, sans jamais pouvoir l’atteindre. Et cependant pour agir il faut s’arrêter, αναγκη στηναι, comme a dit je ne sais plus quel grec, Aristote ou un autre. Nous savons aussi combien elle est souvent cruelle et nous nous demandons si l’illusion n’est pas non seulement plus consolante, mais plus fortifiante aussi ; car c’est elle qui nous donne la confiance. Quand elle aura disparu, l’espérance nous restera-t-elle et aurons-nous le courage d’agir ? C’est ainsi que le cheval attelé à un manège refuserait certainement d’avancer si on ne prenait la précaution de lui bander les yeux. Et puis, pour chercher la vérité, il faut être indépendant, tout à fait indépendant. Si nous voulons agir, au contraire, si nous voulons être forts, il faut que nous soyons unis. Voilà pourquoi plusieurs d’entre nous s’effraient de la vérité ; ils la considèrent comme une cause de faiblesse. Et pourtant il ne faut pas avoir peur de la vérité parce qu’elle seule est belle. Quand je parle ici de la vérité, sans doute je veux parler d’abord de la vérité scientifique ; mais je veux parler aussi de la vérité morale, dont ce qu’on appelle la justice n’est qu’un des aspects. Il semble que j’abuse des mots, que je réunis ainsi sous un même nom deux objets qui n’ont rien de commun ; que la vérité scientifique qui se démontre ne peut, à aucun titre, se rapprocher de la vérité morale qui se sent. Et pourtant je ne peux les séparer, et ceux qui aiment l’une ne peuvent pas ne pas aimer l’autre. Pour trouver l’une, comme pour trouver l’autre, il faut s’efforcer d’affranchir complètement son âme du préjugé et de la passion, il faut atteindre à l’absolue sincérité. Ces deux sortes de vérités, une fois découvertes, nous procurent la même joie ; l’une et l’autre, dès qu’on l’a aperçue, brille du même éclat, de sorte qu’il faut la voir ou fermer les yeux. Toutes deux enfin nous attirent et nous fuient ; elles ne sont jamais fixées : quand on croit les avoir atteintes, on voit qu’il faut marcher encore, et celui qui les poursuit est condamné à ne jamais connaître le repos. Il faut ajouter que ceux qui ont peur de l’une, auront peur aussi de l’autre ; car ce sont ceux qui, en toutes choses, se préoccupent avant tout des conséquences. En un mot, je rapproche les deux vérités, parce que ce sont les mêmes raisons qui nous les font aimer et parce que ce sont les mêmes raisons qui nous les font redouter. Si nous ne devons pas avoir peur de la vérité morale, à plus forte raison il ne faut pas redouter la vérité scientifique. Et d’abord elle ne peut être en conflit avec la morale. La morale et la science ont leurs domaines propres qui se touchent mais ne se pénètrent pas. L’une nous montre à quel but nous devons viser, l’autre, le but étant donné, nous fait connaître les moyens de l’atteindre. Elles ne peuvent donc jamais se contrarier puisqu’elles ne peuvent se rencontrer. Il ne peut pas y avoir de science immorale, pas plus qu’il ne peut y avoir de morale scientifique. Mais si l’on a peur de la science, c’est surtout parce qu’elle ne peut nous donner le bonheur. Évidemment non, elle ne peut pas nous le donner, et l’on peut se demander si la bête ne souffre pas moins que l’homme. Mais pouvons-nous regretter ce paradis terrestre où l’homme, semblable à la brute, était vraiment immortel puisqu’il ne savait pas qu’on doit mourir ? Quand on a goûté à la pomme, aucune souffrance ne peut en faire oublier la saveur, et on y revient toujours. Pourrait-on faire autrement ? Autant demander si celui qui a vu, peut devenir aveugle et ne pas sentir la nostalgie de la lumière. Aussi l’homme ne peut être heureux par la science, mais aujourd’hui il peut bien moins encore être heureux sans elle. Mais si la vérité est le seul but qui mérite d’être poursuivi, pouvons- nous espérer l’atteindre ? Voilà de quoi il est permis de douter. Les lecteurs de mon petit livre sur la Science et l’Hypothèse savent déjà ce que j’en pense. La vérité qu’il nous est permis d’entrevoir n’est pas tout à fait ce que la plupart des hommes appellent de ce nom. Est-ce à dire que notre aspiration la plus légitime et la plus impérieuse est en même temps la plus vaine ? Ou bien pouvons-nous malgré tout approcher de la vérité par quelque côté, c’est ce qu’il convient d’examiner. Et d’abord, de quel instrument disposons-nous pour cette conquête ? L’intelligence de l’homme, pour nous restreindre, l’intelligence du savant n’est-elle pas susceptible d’une infinie variété ? On pourrait, sans épuiser ce sujet, écrire bien des volumes ; je n’ai fait que l’effleurer en quelques courtes pages. Que l’esprit du mathématicien ressemble peu à celui du physicien ou à celui du naturaliste, tout le monde en conviendra ; mais les mathématiciens eux-mêmes ne se ressemblent pas entre eux ; les uns ne connaissent que l’implacable logique, les autres font appel à l’intuition et voient en elle la source unique de la découverte. Et ce serait là une raison de défiance. À des esprits si dissemblables, les théorèmes mathématiques eux- mêmes pourront-ils apparaître sous le même jour ? La vérité qui n’est pas la même pour tous est-elle la vérité ? Mais en regardant les choses de plus près, nous voyons comment ces ouvriers si différents collaborent à une œuvre commune qui ne pourrait s’achever sans leur concours. Et cela déjà nous rassure. Il faut ensuite examiner les cadres dans lesquels la nature nous paraît enfermée et que nous nommons le temps et l’espace. Dans Science et Hypothèse, j’ai déjà montré combien leur valeur est relative ; ce n’est pas la nature qui nous les impose, c’est nous qui les imposons à la nature parce que nous les trouvons commodes, mais je n’ai guère parlé que de l’espace, et surtout de l’espace quantitatif, pour ainsi dire, c’est-à-dire des relations mathématiques dont l’ensemble constitue la géométrie. Il était nécessaire de montrer qu’il en est du temps comme de l’espace et qu’il en est encore de même de « l’espace qualitatif » ; il fallait en particulier rechercher pourquoi nous attribuons trois dimensions à l’espace. On me pardonnera donc d’être revenu une fois encore sur ces importantes questions. L’analyse mathématique, dont l’étude de ces cadres vides est l’objet principal, n’est-elle donc qu’un vain jeu de l’esprit ? Elle ne peut donner au physicien qu’un langage commode ; n’est-ce pas là un médiocre service, dont on aurait pu se passer à la rigueur ; et même, n’est-il pas à craindre que ce langage artificiel ne soit un voile interposé entre la réalité et l’œil du physicien ? Loin de là, sans ce langage, la plupart des analogies intimes des choses nous seraient demeurées à jamais inconnues ; et nous aurions toujours ignoré l’harmonie interne du monde, qui est, nous le verrons, la seule véritable réalité objective. La meilleure expression de cette harmonie, c’est la Loi ; la Loi est une des conquêtes les plus récentes de l’esprit humain ; il y a encore des peuples qui vivent dans un miracle perpétuel et qui ne s’en étonnent pas. C’est nous au contraire qui devrions nous étonner de la régularité de la nature. Les hommes demandent à leurs dieux de prouver leur existence par des miracles ; mais la merveille éternelle c’est qu’il n’y ait pas sans cesse des miracles. Et c’est pour cela que le monde est divin, puisque c’est pour cela qu’il est harmonieux. S’il était régi par le caprice, qu’est-ce qui nous prouverait qu’il ne l’est pas par le hasard ? Cette conquête de la Loi, c’est à l’Astronomie que nous la devons, et c’est ce qui fait la grandeur de cette Science, plus encore que la grandeur matérielle des objets qu’elle considère. Il était donc tout naturel que la Mécanique Céleste fût le premier modèle de la Physique Mathématique ; mais depuis cette Science, a évolué ; elle évolue encore, elle évolue même rapidement. Et déjà il est nécessaire de modifier sur quelques points le tableau que je traçais en 1900 et dont j’ai tiré deux chapitres de Science et Hypothèse. Dans une conférence faite à l’Exposition de Saint-Louis en 1904, j’ai cherché à mesurer le chemin parcouru ; quel a été le résultat de cette enquête, c’est ce que le lecteur verra plus loin. Les progrès de la Science ont semblé mettre en péril les principes les mieux établis, ceux-là mêmes qui étaient regardés comme fondamentaux. Rien ne prouve cependant qu’on n’arrivera pas à les sauver ; et si on n’y parvient qu’imparfaitement, ils subsisteront encore, tout en se transformant. Il ne faut pas comparer la marche de la Science aux transformations d’une ville, où les édifices vieillis sont impitoyablement jetés à bas pour faire place aux constructions nouvelles, mais à l’évolution continue des types zoologiques qui se développent sans cesse et finissent par devenir méconnaissables aux regards vulgaires, mais où un œil exercé retrouve toujours les traces du travail antérieur des siècles passés. Il ne faut donc pas croire que les théories démodées ont été stériles et vaines. Si nous nous arrêtions là, nous trouverions dans ces pages quelques raisons d’avoir confiance dans la valeur de la Science, mais des raisons beaucoup plus nombreuses de nous en défier ; il nous resterait une impression de doute ; il faut maintenant remettre les choses au point. Quelques personnes ont exagéré le rôle de la convention dans la Science ; elles sont allées jusqu’à dire que la Loi, que le fait scientifique lui- même étaient créés par le savant. C’est là aller beaucoup trop loin dans la voie du nominalisme. Non, les lois scientifiques ne sont pas des créations artificielles ; nous n’avons aucune raison de les regarder comme contingentes, bien qu’il nous soit impossible de démontrer qu’elles ne le sont pas. Cette harmonie que l’intelligence humaine croit découvrir dans la nature, existe-t-elle en dehors de cette intelligence ? Non, sans doute, une réalité complètement indépendante de l’esprit qui la conçoit, la voit ou la sent, c’est une impossibilité. Un monde si extérieur que cela, si même il existait, nous serait à jamais inaccessible. Mais ce que nous appelons la réalité objective, c’est, en dernière analyse, ce qui est commun à plusieurs êtres pensants, et pourrait être commun à tous ; cette partie commune, nous le verrons, ce ne peut être que l’harmonie exprimée par des lois mathématiques. C’est donc cette harmonie qui est la seule réalité objective, la seule vérité que nous puissions atteindre ; et si j’ajoute que l’harmonie universelle du monde est la source de toute beauté, on comprendra quel prix nous devons attacher aux lents et pénibles progrès qui nous la font peu à peu mieux connaître.     PREMIÈRE PARTIE LES SCIENCES MATHÉMATIQUES     CHAPITRE PREMIER L’intuition et la Logique en Mathématiques I Il est impossible d’étudier les Œuvres des grands mathématiciens, et même celles des petits, sans remarquer et sans distinguer deux tendances opposées, ou plutôt deux sortes d’esprits entièrement différents. Les uns sont avant tout préoccupés de la logique ; à lire leurs ouvrages, on est tenté de croire qu’ils n’ont avancé que pas à pas, avec la méthode d’un Vauban qui pousse ses travaux d’approche contre une place forte, sans rien abandonner au hasard. Les autres se laissent guider par l’intuition et font du premier coup des conquêtes rapides, mais quelquefois précaires, ainsi que de hardis cavaliers d’avant-garde. Ce n’est pas la matière qu’ils traitent qui leur impose l’une ou l’autre méthode. Si l’on dit souvent des premiers qu’ils sont des analystes et si l’on appelle les autres géomètres, cela n’empêche pas que les uns restent analystes, même quand ils font de la Géométrie, tandis que les autres sont encore des géomètres, même s’ils s’occupent d’Analyse pure. C’est la nature même de leur esprit qui les fait logiciens ou intuitifs, et ils ne peuvent la dépouiller quand ils abordent un sujet nouveau. Ce n’est pas non plus l’éducation qui a développé en eux l’une des deux tendances et qui a étouffé l’autre. On naît mathématicien, on ne le devient pas, et il semble aussi qu’on naît géomètre, ou qu’on naît analyste. Je voudrais citer des exemples et certes ils ne manquent pas ; mais pour accentuer le contraste, je voudrais commencer par un exemple extrême ; pardon, si je suis obligé de le chercher auprès de deux mathématiciens vivants. M. Méray veut démontrer qu’une équation binôme a toujours une racine, ou, en termes vulgaires, qu’on peut toujours subdiviser un angle. S’il est une vérité que nous croyons connaître par intuition directe, c’est bien celle-là. Qui doutera qu’un angle peut toujours être partagé en un nombre quelconque de parties égales ? M. Méray n’en juge pas ainsi ; à ses yeux, cette proposition n’est nullement évidente et pour la démontrer, il lui faut plusieurs pages. Voyez au contraire M. Klein : il étudie une des questions les plus abstraites de la théorie des fonctions ; il s’agit de savoir si sur une surface de Riemann donnée, il existe toujours une fonction admettant des singularités données. Que fait le célèbre géomètre allemand ? Il remplace sa surface de Riemann par une surface métallique dont la conductibilité électrique varie suivant certaines lois. Il met deux de ses points en communication avec les deux pôles d’une pile. Il faudra bien, dit-il, que le courant passe, et la façon dont ce courant sera distribué sur la surface définira une fonction dont les singularités seront précisément celles qui sont prévues par l’énoncé. Sans doute, M. Klein sait bien qu’il n’a donné là qu’un aperçu : toujours est-il qu’il n’a pas hésité à le publier ; et il croyait probablement y trouver sinon une démonstration rigoureuse, du moins je ne sais quelle certitude morale. Un logicien aurait rejeté avec horreur une semblable conception, ou plutôt il n’aurait pas eu à la rejeter, car dans son esprit elle n’aurait jamais pu naître. Permettez-moi encore de comparer deux hommes, qui sont l’honneur de la Science française, qui nous ont été récemment enlevés, mais qui tous deux étaient depuis longtemps entrés dans l’immortalité. Je veux parler de M. Bertrand et de M. Hermite. Ils ont été élèves de la même école et en même temps ; ils ont subi la même éducation, les mêmes influences ; et pourtant quelle divergence ; ce n’est pas seulement dans leurs écrits qu’on la voit éclater ; c’est dans leur enseignement, dans leur façon de parler, dans leur aspect même. Dans la mémoire de tous leurs élèves, ces deux physionomies se sont gravées en traits ineffaçables ; pour tous ceux qui ont eu le bonheur de suivre leurs leçons, ce souvenir est encore tout récent ; il nous est aisé de l’évoquer. Tout en parlant, M. Bertrand est toujours en action ; tantôt il semble aux prises avec quelque ennemi extérieur, tantôt il dessine d’un geste de la main les figures qu’il étudie. Évidemment, il voit et il cherche à peindre, c’est pour cela qu’il appelle le geste à son secours. Pour M. Hermite, c’est tout le contraire ; ses yeux semblent fuir le contact du monde ; ce n’est pas au dehors, c’est au dedans qu’il cherche la vision de la vérité. Parmi les géomètres allemands de ce siècle, deux noms surtout sont illustres ; ce sont ceux des deux savants qui ont fondé la théorie générale des fonctions, Weierstrass et Riemann. Weierstrass ramène tout à la considération des séries et à leurs transformations analytiques ; pour mieux dire, il réduit l’Analyse à une sorte de prolongement de l’Arithmétique ; on peut parcourir tous ses Livres sans y trouver une figure. Riemann, au contraire, appelle de suite la Géométrie à son secours, chacune de ses conceptions est une image que nul ne peut oublier dès qu’il en a compris le sens. Plus récemment, Lie était un intuitif ; on aurait pu hésiter en lisant ses ouvrages, on n’hésitait plus après avoir causé avec lui ; on voyait tout de suite qu’il pensait en images. M me Kowalevski était une logicienne. Chez nos étudiants, nous remarquons les mêmes différences ; les uns aiment mieux traiter leurs problèmes « par l’Analyse », les autres « par la Géométrie ». Les premiers sont incapables de « voir dans l’espace », les autres se lasseraient promptement des longs calculs et s’y embrouilleraient. Les deux sortes d’esprits sont également nécessaires aux progrès de la Science ; les logiciens, comme les intuitifs, ont fait de grandes choses que les autres n’auraient pas pu faire. Qui oserait dire s’il aimerait mieux que Weierstrass n’eût jamais écrit, ou s’il préférerait qu’il n’y eût pas eu de Riemann ? L’Analyse et la Synthèse ont donc toutes deux leur rôle légitime. Mais il est intéressant d’étudier de plus près quelle est dans l’histoire de la Science la part qui revient à l’une et à l’autre. II Chose curieuse ! Si nous relisons les Œuvres des anciens, nous serons tentés de les classer tous parmi les intuitifs. Et pourtant la nature est toujours la même, il est peu probable qu’elle ait commencé dans ce siècle à créer des esprits amis de la logique. Si nous pouvions nous replacer dans le courant des idées qui régnaient de leur temps, nous reconnaîtrions que beaucoup de ces vieux géomètres étaient analystes par leurs tendances. Euclide, par exemple, a élevé un échafaudage savant où ses contemporains ne pouvaient trouver de défaut. Dans cette vaste construction, dont chaque pièce, pourtant, est due à l’intuition, nous pouvons encore aujourd’hui sans trop d’efforts reconnaître l’œuvre d’un logicien. Ce ne sont pas les esprits qui ont changé, ce sont les idées ; les esprits intuitifs sont restés les mêmes ; mais leurs lecteurs ont exigé d’eux plus de concessions. Quelle est la raison de cette évolution ? Il n’est pas difficile de la découvrir. L’intuition ne peut nous donner la rigueur, ni même la certitude, on s’en est aperçu de plus en plus. Citons quelques exemples. Nous savons qu’il existe des fonctions continues dépourvues de dérivées. Rien de plus choquant pour l’intuition que cette proposition qui nous est imposée par la logique. Nos pères n’auraient pas manqué de dire : « Il est évident que toute fonction continue a une dérivée, puisque toute courbe a une tangente. » Comment l’intuition peut-elle nous tromper à ce point ? C’est que quand nous cherchons à imaginer une courbe, nous ne pouvons pas nous la représenter sans épaisseur ; de même, quand nous nous représentons une droite, nous la voyons sous la forme d’une bande rectiligne d’une certaine largeur. Nous savons bien que ces lignes n’ont pas d’épaisseur ; nous nous efforçons de les imaginer de plus en plus minces et de nous rapprocher ainsi de la limite ; nous y parvenons dans une certaine mesure, mais nous n’atteindrons jamais cette limite. Et alors il est clair que nous pourrons toujours nous représenter ces deux rubans étroits, l’un rectiligne, l’autre curviligne, dans une position telle qu’ils empiètent légèrement l’un sur l’autre sans se traverser. Nous serons ainsi amenés, à moins d’être avertis par une analyse rigoureuse, à conclure qu’une courbe a toujours une tangente. Je prendrai comme second exemple le principe de Dirichlet sur lequel reposent tant de théorèmes de physique mathématique ; aujourd’hui on l’établit par des raisonnements très rigoureux mais très longs ; autrefois, au contraire, on se contentait d’une démonstration sommaire. Une certaine intégrale dépendant d’une fonction arbitraire ne peut jamais s’annuler. On en concluait qu’elle doit avoir un minimum. Le défaut de ce raisonnement nous apparaît immédiatement, parce que nous employons le terme abstrait de fonction et que nous sommes familiarisés avec toutes les singularités que peuvent présenter les fonctions quand on entend ce mot dans le sens le plus général. Mais il n’en serait pas de même si l’on s’était servi d’images concrètes, si l’on avait, par exemple, considéré cette fonction comme un potentiel électrique ; on aurait pu croire légitime d’affirmer que l’équilibre électrostatique peut être atteint. Peut-être cependant une comparaison physique aurait éveillé quelques vagues défiances. Mais si l’on avait pris soin de traduire le raisonnement dans le langage de la Géométrie, intermédiaire entre celui de l’Analyse et celui de la Physique, ces défiances ne se seraient sans doute pas produites, et peut-être pourrait-on ainsi, même aujourd’hui, tromper encore bien des lecteurs non prévenus. L’intuition ne nous donne donc pas la certitude. Voilà pourquoi l’évolution devait se faire ; voyons maintenant comment elle s’est faite. On n’a pas tardé à s’apercevoir que la rigueur ne pourrait pas s’introduire dans les raisonnements, si on ne la faisait entrer d’abord dans les définitions. Longtemps les objets dont s’occupent les mathématiciens étaient pour la plupart mal définis ; on croyait les connaître, parce qu’on se les représentait avec les sens ou l’imagination ; mais on n’en avait qu’une image grossière et non une idée précise sur laquelle le raisonnement pût avoir prise. C’est là d’abord que les logiciens ont dû porter leurs efforts. Ainsi pour le nombre incommensurable. L’idée vague de continuité, que nous devions à l’intuition, s’est résolue en un système compliqué d’inégalités portant sur des nombres entiers. Par là, les difficultés provenant des passages à la limite, ou de la considération des infiniment petits, se sont trouvées définitivement éclaircies. Il ne reste plus aujourd’hui en Analyse que des nombres entiers ou des systèmes finis ou infinis de nombres entiers, reliés entre eux par un réseau de relations d’égalité ou d’inégalité. Les Mathématiques, comme on l’a dit, se sont arithmétisées. III Une première question se pose. Cette évolution est-elle terminée ? Avons-nous atteint enfin la rigueur absolue ? À chaque stade de l’évolution nos pères croyaient aussi l’avoir atteinte. S’ils se trompaient, ne nous trompons-nous pas comme eux ? Nous croyons dans nos raisonnements ne plus faire appel à l’intuition ; les philosophes nous diront que c’est là une illusion. La logique toute pure ne nous mènerait jamais qu’à des tautologies ; elle ne pourrait créer du nouveau ; ce n’est pas d’elle toute seule qu’aucune science peut sortir. Ces philosophes ont raison dans un sens ; pour faire l’Arithmétique, comme pour faire la Géométrie, ou pour faire une science quelconque, il faut autre chose que la logique pure. Cette autre chose, nous n’avons pour la désigner d’autre mot que celui d’intuition. Mais combien d’idées différentes se cachent sous ces mêmes mots ? Comparons ces quatre axiomes :   1° Deux quantités égales à une troisième sont égales entre elles ;  2° Si un théorème est vrai du nombre 1 et si l’on démontre qu’il est vrai de n + 1, pourvu qu’il le soit de n, il sera vrai de tous les nombres entiers ; 3° Si sur une droite le point C est entre A et B et le point D entre A et G, le point D sera entre A et B ; 4° Par un point on ne peut mener qu’une parallèle à une droite.   Tous quatre doivent être attribués à l’intuition, et cependant le premier est l’énoncé d’une des règles de la logique formelle ; le second est un véritable jugement synthétique a priori, c’est le fondement de l’induction mathématique rigoureuse ; le troisième est un appel à l’imagination ; le quatrième est une définition déguisée. L’intuition n’est pas forcément fondée sur le témoignage des sens ; les sens deviendraient bientôt impuissants ; nous ne pouvons, par exemple, nous représenter le chilogone, et cependant nous raisonnons par intuition sur les polygones en général, qui comprennent le chilogone comme cas particulier. Vous savez ce que Poncelet entendait par le principe de continuité. Ce qui est vrai d’une quantité réelle, disait Poncelet, doit l’être d’une quantité imaginaire ; ce qui est vrai de l’hyperbole dont les asymptotes sont réelles, doit donc être vrai de l’ellipse dont les asymptotes sont imaginaires. Poncelet était l’un des esprits les plus intuitifs de ce siècle ; il l’était avec passion, presque avec ostentation ; il regardait le principe de continuité comme une de ses conceptions les plus hardies, et cependant ce principe ne reposait pas sur le témoignage des sens ; c’était plutôt contredire ce témoignage que d’assimiler l’hyperbole à l’ellipse. Il n’y avait là qu’une sorte de généralisation hâtive et instinctive que je ne veux d’ailleurs pas défendre. Nous avons donc plusieurs sortes d’intuitions ; d’abord, l’appel aux sens et à l’imagination ; ensuite, la généralisation par induction, calquée, pour ainsi dire, sur les procédés des sciences expérimentales ; nous avons enfin l’intuition du nombre pur, celle d’où est sorti le second des axiomes que j’énonçais tout à l’heure et qui peut engendrer le véritable raisonnement mathématique. Les deux premières ne peuvent nous donner la certitude, je l’ai montré plus haut par des exemples ; mais qui doutera sérieusement de la troisième, qui doutera de l’Arithmétique ? Or, dans l’Analyse d’aujourd’hui, quand on veut se donner la peine d’être rigoureux, il n’y a plus que des syllogismes ou des appels à cette intuition du nombre pur, la seule qui ne puisse nous tromper. On peut dire qu’aujourd’hui la rigueur absolue est atteinte. IV Les philosophes font encore une autre objection : « Ce que vous gagnez en rigueur, disent-ils, vous le perdez en objectivité. Vous ne pouvez vous élever vers votre idéal logique qu’en coupant les liens qui vous rattachent à la réalité. Votre Science est impeccable, mais elle ne peut le rester qu’en s’enfermant dans une tour d’ivoire et en s’interdisant tout rapport avec le monde extérieur. Il faudra bien qu’elle en sorte dès qu’elle voudra tenter la moindre application. » Je veux démontrer, par exemple, que telle propriété appartient à tel objet dont la notion me semble d’abord indéfinissable, parce qu’elle est intuitive. J’échoue d’abord ou je dois me contenter de démonstrations par à peu près ; je me décide enfin à donner à mon objet une définition précise, ce qui me permet d’établir cette propriété d’une manière irréprochable. « Et après ? disent les philosophes, il reste encore à montrer que l’objet qui répond à cette définition est bien le même que l’intuition vous a fait connaître ; ou bien encore que tel objet réel et concret dont vous croyiez reconnaître immédiatement la conformité avec votre idée intuitive, répond bien à votre définition nouvelle. C’est alors seulement que vous pourrez affirmer qu’il jouit de la propriété en question. Vous n’avez fait que déplacer la difficulté. » Cela n’est pas exact ; on n’a pas déplacé la difficulté, on l’a divisée. La proposition qu’il s’agissait d’établir se composait en réalité de deux vérités différentes, mais que l’on n’avait pas distinguées tout d’abord. La première était une vérité mathématique et elle est maintenant rigoureusement établie. La seconde était une vérité expérimentale. L’expérience seule peut nous apprendre que tel objet réel et concret répond ou ne répond pas à telle définition abstraite. Cette seconde vérité n’est pas démontrée mathématiquement, mais elle ne peut pas l’être, pas plus que ne peuvent l’être les lois empiriques des Sciences physiques et naturelles. Il serait déraisonnable de demander davantage. Eh bien ! n’est-ce pas un grand progrès d’avoir distingué ce qu’on avait longtemps confondu à tort ? Est-ce à dire qu’il n’y a rien à retenir de cette objection des philosophes ? Ce n’est pas cela que je veux dire ; en devenant rigoureuse, la Science mathématique prend un caractère artificiel qui frappera tout le monde ; elle oublie ses origines historiques ; on voit comment les questions peuvent se résoudre, on ne voit plus comment et pourquoi elles se posent. Cela nous montre que la logique ne suffît pas ; que la Science de la démonstration n’est pas la Science tout entière et que l’intuition doit conserver son rôle comme complément, j’allais dire comme contrepoids ou comme contrepoison de la logique. J’ai déjà eu l’occasion d’insister sur la place que doit garder l’intuition dans l’enseignement des Sciences mathématiques. Sans elle, les jeunes esprits ne sauraient s’initier à l’intelligence des Mathématiques ; ils n’apprendraient pas à les aimer et n’y verraient qu’une vaine logomachie ; sans elle surtout, ils ne deviendraient jamais capables de les appliquer. Mais aujourd’hui, c’est avant tout du rôle de l’intuition dans la Science elle-même que je voudrais parler. Si elle est utile à l’étudiant, elle l’est plus encore au savant créateur. V Nous cherchons la réalité, mais qu’est-ce que la réalité ? Les physiologistes nous apprennent que les organismes sont formés de cellules ; les chimistes ajoutent que les cellules elles-mêmes sont formées d’atomes. Cela veut-il dire que ces atomes ou que ces cellules constituent la réalité, ou du moins la seule réalité ? La façon dont ces cellules sont agencées et d’où résulte l’unité de l’individu, n’est-elle pas aussi une réalité, beaucoup plus intéressante que celle des éléments isolés, et un naturaliste, qui n’aurait jamais étudié l’éléphant qu’au microscope, croirait- il connaître suffisamment cet animal ? Eh bien ! en Mathématiques, il y a quelque chose d’analogue. Le logicien décompose pour ainsi dire chaque démonstration en un très grand nombre d’opérations élémentaires ; quand on aura examiné ces opérations les unes après les autres et qu’on aura constaté que chacune d’elles est correcte, croira-t-on avoir compris le véritable sens de la démonstration ? L’aura-t-on compris même quand, par un effort de mémoire, on sera devenu capable de répéter cette démonstration en reproduisant toutes ces opérations élémentaires dans l’ordre même où les avait rangées l’inventeur ? Évidemment non, nous ne posséderons pas encore la réalité tout entière, ce je ne sais quoi qui fait l’unité de la démonstration nous échappera complètement. L’Analyse pure met à notre disposition une foule de procédés dont elle nous garantit l’infaillibilité ; elle nous ouvre mille chemins différents où nous pouvons nous engager en toute confiance ; nous sommes assurés de n’y pas rencontrer d’obstacles ; mais, de tous ces chemins, quel est celui qui nous mènera le plus promptement au but ? Qui nous dira lequel il faut choisir ? Il nous faut une faculté qui nous fasse voir le but de loin, et, cette faculté, c’est l’intuition. Elle est nécessaire à l’explorateur pour choisir sa route, elle ne l’est pas moins à celui qui marche sur ses traces et qui veut savoir pourquoi il l’a choisie. Si vous assistez à une partie d’échecs, il ne vous suffira pas, pour comprendre la partie, de savoir les règles de la marche des pièces. Cela vous permettrait seulement de reconnaître que chaque coup a été joué conformément à ces règles et cet avantage aurait vraiment bien peu de prix. C’est pourtant ce que ferait le lecteur d’un livre de Mathématiques, s’il n’était que logicien. Comprendre la partie, c’est tout autre chose ; c’est savoir pourquoi le joueur avance telle pièce plutôt que telle autre qu’il aurait pu faire mouvoir sans violer les règles du jeu. C’est apercevoir la raison intime qui fait de cette série de coups successifs une sorte de tout organisé. À plus forte raison, cette faculté est-elle nécessaire au joueur lui- même, c’est-à-dire à l’inventeur. Laissons là cette comparaison et revenons aux Mathématiques. Voyons ce qui est arrivé, par exemple pour l’idée de fonction continue. Au début, ce n’était qu’une image sensible, par exemple, celle d’un trait continu tracé à la craie sur un tableau noir. Puis elle s’est épurée peu à peu, bientôt on s’en est servi pour construire un système compliqué d’inégalités, qui reproduisait pour ainsi dire toutes les lignes de l’image primitive ; quand cette construction a été terminée, on a décintré, pour ainsi dire, on a rejeté cette représentation grossière qui lui avait momentanément servi d’appui et qui était désormais inutile ; il n’est plus resté que la construction elle-même, irréprochable aux yeux du logicien. Et cependant si l’image primitive avait totalement disparu de notre souvenir, comment devinerions- nous par quel caprice toutes ces inégalités se sont échafaudées de cette façon les unes sur les autres ? Vous trouverez peut-être que j’abuse des comparaisons ; passez-m’en cependant encore une. Vous avez vu sans doute ces assemblages délicats d’aiguilles siliceuses qui forment le squelette de certaines éponges. Quand la matière organique a disparu, il ne reste qu’une frêle et élégante dentelle. Il n’y a là, il est vrai, que de la silice, mais, ce qui est intéressant, c’est la forme qu’a prise cette silice, et nous ne pouvons la comprendre si nous ne connaissons pas l’éponge vivante qui lui a précisément imprimé cette forme. C’est ainsi que les anciennes notions intuitives de nos pères, même lorsque nous les avons abandonnées, impriment encore leur forme aux échafaudages logiques que nous avons mis à leur place. Cette vue d’ensemble est nécessaire à l’inventeur ; elle est nécessaire également à celui qui veut réellement comprendre l’inventeur ; la logique peut-elle nous la donner ? Non ; le nom que lui donnent les mathématiciens suffirait pour le prouver. En Mathématiques, la logique s’appelle Analyse et analyse veut dire division, dissection. Elle ne peut donc avoir d’autre outil que le scalpel et le microscope. Ainsi, la logique et l’intuition ont chacune leur rôle nécessaire. Toutes deux sont indispensables. La logique qui peut seule donner la certitude est l’instrument de la démonstration : l’intuition est l’instrument de l’invention. VI Mais, au moment de formuler cette conclusion, je suis pris d’un scrupule. Au début, j’ai distingué deux sortes d’esprits mathématiques, les uns logiciens et analystes, les autres intuitifs et géomètres. Eh bien, les analystes aussi ont été des inventeurs. Les noms que j’ai cités tout à l’heure me dispensent d’insister. Il y a là une contradiction au moins apparente qu’il est nécessaire d’expliquer. Croit-on d’abord que ces logiciens ont toujours procédé du général au particulier, comme les règles de la logique formelle semblaient les y obliger ? Ce n’est pas ainsi qu’ils auraient pu étendre les frontières de la Science ; on ne peut faire de conquête scientifique que par la généralisation. Dans un des chapitres de Science et Hypothèse, j’ai eu l’occasion d’étudier la nature du raisonnement mathématique et j’ai montré comment ce raisonnement, sans cesser d’être absolument rigoureux, pouvait nous élever du particulier au général par un procédé que j’ai appelé l’induction mathématique. C’est par ce procédé que les analystes ont fait progresser la Science et si l’on examine le détail même de leurs démonstrations, on l’y retrouvera à chaque instant à côté du syllogisme classique d’Aristote. Nous voyons donc déjà que les analystes ne sont pas simplement des faiseurs de syllogismes à la façon des scolastiques. Croira-t-on, d’autre part, qu’ils ont toujours marché pas à pas sans avoir la vision du but qu’ils voulaient atteindre ? Il a bien fallu qu’ils devinassent le chemin qui y conduisait, et pour cela ils ont eu besoin d’un guide. Ce guide, c’est d’abord l’analogie. Par exemple, un des raisonnements chers aux analystes est celui qui est fondé sur l’emploi des fonctions majorantes. On sait qu’il a déjà servi à résoudre une foule de problèmes ; en quoi consiste alors le rôle de l’inventeur qui veut l’appliquer à un problème nouveau ? Il faut d’abord qu’il reconnaisse l’analogie de cette question avec celles qui ont déjà été résolues par cette méthode ; il faut ensuite qu’il aperçoive en quoi cette nouvelle question diffère des autres, et qu’il en déduise les modifications qu’il est nécessaire d’apporter à la méthode. Mais comment aperçoit-on ces analogies et ces différences ? Dans l’exemple que je viens de citer, elles sont presque toujours évidentes, mais j’aurais pu en trouver d’autres où elles auraient été beaucoup plus cachées ; souvent il faut pour les découvrir une perspicacité peu commune. Les analystes, pour ne pas laisser échapper ces analogies cachées, c’est- à-dire pour pouvoir être inventeurs, doivent, sans le secours des sens et de l’imagination, avoir le sentiment direct de ce qui fait l’unité d’un raisonnement, de ce qui en fait pour ainsi dire l’âme et la vie intime. Quand on causait avec M. Hermite ; jamais il n’évoquait une image sensible, et pourtant vous vous aperceviez bientôt que les entités les plus abstraites étaient pour lui comme des êtres vivants. Il ne les voyait pas, mais il sentait qu’elles ne sont pas un assemblage artificiel, et qu’elles ont je ne sais quel principe d’unité interne. Mais, dira-t-on, c’est là encore de l’intuition. Conclurons-nous que la distinction faite au début n’était qu’une apparence, qu’il n’y a qu’une sorte d’esprits et que tous les mathématiciens sont des intuitifs, du moins ceux qui sont capables d’inventer ? Non, notre distinction correspond à quelque chose de réel. J’ai dit plus haut qu’il y a plusieurs espèces d’intuition. J’ai dit combien l’intuition du nombre pur, celle d’où peut sortir l’induction mathématique rigoureuse, diffère de l’intuition sensible dont l’imagination proprement dite fait tous les frais. L’abîme qui les sépare est-il moins profond qu’il ne paraît d’abord ? Reconnaîtrait-on avec un peu d’attention que cette intuition pure elle-même ne saurait se passer du secours des sens ? C’est là l’affaire du psychologue et du métaphysicien et je ne discuterai pas cette question. Mais il suffit que la chose soit douteuse pour que je sois en droit de reconnaître et d’affirmer une divergence essentielle entre les deux sortes d’intuition ; elles n’ont pas le même objet et semblent mettre en jeu deux facultés différentes de notre âme ; on dirait de deux projecteurs braqués sur deux mondes étrangers l’un à l’autre. C’est l’intuition du nombre pur, celle des formes logiques pures qui éclaire et dirige ceux que nous avons appelés analystes. C’est elle qui leur permet non seulement de démontrer, mais encore d’inventer. C’est par elle qu’ils aperçoivent d’un coup d’œil le plan général d’un édifice logique, et cela sans que les sens paraissent intervenir. En rejetant le secours de l’imagination, qui, nous l’avons vu, n’est pas toujours infaillible, ils peuvent avancer sans crainte de se tromper. Heureux donc ceux qui peuvent se passer de cet appui ! Nous devons les admirer, mais combien ils sont rares ! Pour les analystes, il y aura donc des inventeurs, mais il y en aura peu. La plupart d’entre nous, s’ils voulaient voir de loin par la seule intuition pure, se sentiraient bientôt pris de vertige. Leur faiblesse a besoin d’un bâton plus solide et, malgré les exceptions dont nous venons de parler, il n’en est pas moins vrai que l’intuition sensible est en Mathématiques l’instrument le plus ordinaire de l’invention. À propos des dernières réflexions que je viens de faire, une question se pose que je n’ai le temps, ni de résoudre, ni même d’énoncer avec les développements qu’elle comporterait. Y a-t-il lieu de faire une nouvelle coupure et de distinguer parmi les analystes ceux qui se servent surtout de cette intuition pure ou ceux qui se préoccupent d’abord de la logique formelle ? M. Hermite, par exemple, que je citais tout à l’heure, ne peut être classé parmi les géomètres qui font usage de l’intuition sensible ; mais il n’est pas non plus un logicien proprement dit. Il ne cache pas sa répulsion pour les procédés purement déductifs qui partent du général pour aller au particulier.     CHAPITRE II La mesure du Temps I Tant que l’on ne sort pas du domaine de la conscience, la notion du temps est relativement claire. Non seulement nous distinguons sans peine la sensation présente du souvenir des sensations passées ou de la prévision des sensations futures ; mais nous savons parfaitement ce que nous voulons dire quand nous affirmons que, de deux phénomènes conscients dont nous avons conservé le souvenir, l’un a été antérieur à l’autre ; ou bien que, de deux phénomènes conscients prévus, l’un sera antérieur à l’autre. Quand nous disons que deux faits conscients sont simultanés, nous voulons dire qu’ils se pénètrent profondément l’un l’autre, de telle sorte que l’analyse ne peut les séparer sans les mutiler. L’ordre dans lequel nous rangeons les phénomènes conscients ne comporte aucun arbitraire. Il nous est imposé et nous n’y pouvons rien changer. Je n’ai qu’une observation à ajouter. Pour qu’un ensemble de sensations soit devenu un souvenir susceptible d’être classé dans le temps, il faut qu’il ait cessé d’être actuel, que nous ayons perdu le sens de son infinie complexité, sans quoi il serait resté actuel. Il faut qu’il ait pour ainsi dire cristallisé autour d’un centre d’associations d’idées qui sera comme une sorte d’étiquette. Ce n’est que quand ils auront ainsi perdu toute vie que nous pourrons classer nos souvenirs dans le temps, comme un botaniste range dans son herbier les fleurs desséchées. Mais ces étiquettes ne peuvent être qu’en nombre fini. À ce compte, le temps psychologique serait discontinu. D’où vient ce sentiment qu’entre deux instants quelconques il y a d’autres instants ? Nous classons nos souvenirs dans le temps, mais nous savons qu’il reste des cases vides. Comment cela se pourrait-il si le temps n’était une forme préexistant dans notre esprit ? Comment saurions-nous qu’il y a des cases vides, si ces cases ne nous étaient révélées que par leur contenu ? II Mais ce n’est pas tout ; dans cette forme nous voulons faire rentrer non seulement les phénomènes de notre conscience, mais ceux dont les autres consciences sont le théâtre. Bien plus, nous voulons y faire rentrer les faits physiques, ces je ne sais quoi dont nous peuplons l’espace et que nulle conscience ne voit directement. Il le faut bien car sans cela la science ne pourrait exister. En un mot, le temps psychologique nous est donné et nous voulons créer le temps scientifique et physique. C’est là que la difficulté commence, ou plutôt les difficultés, car il y en a deux. Voilà deux consciences qui sont comme deux mondes impénétrables l’un à l’autre. De quel droit voulons-nous les faire entrer dans un même moule, les mesurer avec la même toise ? N’est-ce pas comme si l’on voulait mesurer avec un gramme ou peser avec un mètre ? Et d’ailleurs, pourquoi parlons-nous de mesure ? Nous savons peut-être que tel fait est antérieur à tel autre, mais non de combien il est antérieur. Donc deux difficultés : 1° Pouvons-nous transformer le temps psychologique, qui est qualitatif, en un temps quantitatif ? 2° Pouvons-nous réduire à une même mesure des faits qui se passent dans des mondes différents ? III La première difficulté a été remarquée depuis longtemps ; elle a fait l’objet de longues discussions et on peut dire que la question est tranchée. Nous n’avons pas l’intuition directe de l’égalité de deux intervalles de temps. Les personnes qui croient posséder cette intuition sont dupes d’une illusion. Quand je dis, de midi à une heure, il s’est écoulé le même temps que de deux heures à trois heures, quel sens a cette affirmation ? La moindre réflexion montre qu’elle n’en a aucun par elle-même. Elle n’aura que celui que je voudrai bien lui donner, par une définition qui comportera certainement un certain degré d’arbitraire. Les psychologues auraient pu se passer de cette définition ; les physiciens, les astronomes ne le pouvaient pas ; voyons comment ils s’en sont tirés. Pour mesurer le temps, ils se servent du pendule et ils admettent par définition que tous les battements de ce pendule sont d’égale durée. Mais ce n’est là qu’une première approximation ; la température, la résistance de l’air, la pression barométrique font varier la marche du pendule. Si on échappait à ces causes d’erreur, on obtiendrait une approximation beaucoup plus grande, mais ce ne serait encore qu’une approximation. Des causes nouvelles, négligées jusqu’ici, électriques, magnétiques ou autres, viendraient apporter de petites perturbations. En fait, les meilleures horloges doivent être corrigées de temps en temps, et les corrections se font à l’aide des observations astronomiques ; on s’arrange pour que l’horloge sidérale marque la même heure quand la même étoile passe au méridien. En d’autres termes, c’est le jour sidéral, c’est-à-dire la durée de rotation de la terre, qui est l’unité constante du temps. On admet, par une définition nouvelle substituée à celle qui est tirée des battements du pendule, que deux rotations complètes de la terre autour de son axe ont même durée. Cependant les astronomes ne se sont pas contentés encore de cette définition. Beaucoup d’entre eux pensent que les marées agissent comme un frein sur notre globe, et que la rotation de la terre devient de plus en plus lente. Ainsi s’expliquerait l’accélération apparente du mouvement de la lune, qui paraîtrait aller plus vite que la théorie ne le lui permet parce que notre horloge, qui est la terre, retarderait. IV Tout cela importe peu, dira-t-on, sans doute nos instruments de mesure sont imparfaits, mais il suffit que nous puissions concevoir un instrument parfait. Cet idéal ne pourra être atteint, mais ce sera assez de l’avoir conçu et d’avoir ainsi mis la rigueur dans la définition de l’unité de temps. Le malheur est que cette rigueur ne s’y rencontre pas. Quand nous nous servons du pendule pour mesurer le temps, quel est le postulat que nous admettons implicitement ? C’est que la durée de deux phénomènes identiques est la même ; ou, si l’on aime mieux, que les mêmes causes mettent le même temps à produire les mêmes effets. Et c’est là au premier abord une bonne définition de l’égalité de deux durées. Prenons-y garde cependant. Est-il impossible que l’expérience démente un jour notre postulat ? Je m’explique ; je suppose qu’en un certain point du monde se passe le phénomène α, amenant pour conséquence au bout d’un certain temps l’effet α′. En un autre point du monde très éloigné du premier, se passe le phénomène β, qui amène comme conséquence l’effet β′. Les phénomènes α et β sont simultanés, de même que les effets α′ et β′. À une époque ultérieure, le phénomène α se reproduit dans des circonstances à peu près identiques et simultanément le phénomène β se reproduit aussi en un point très éloigné du monde et à peu près dans les mêmes circonstances. Les effets α′ et β′ vont aussi se reproduire. Je suppose que l’effet α′ ait lieu sensiblement avant l’effet β′. Si l’expérience nous rendait témoins d’un tel spectacle, notre postulat se trouverait démenti. Car l’expérience nous apprendrait que la première durée αα′ est égale à la première durée ββ′ et que la seconde durée αα′ est plus petite que la seconde durée ββ′. Au contraire notre postulat exigerait que les deux durées αα′ fussent égales entre elles, de même que les deux durées ββ′. L’égalité et l’inégalité déduites de l’expérience seraient incompatibles avec les deux égalités tirées du postulat. Or, pouvons-nous affirmer que les hypothèses que je viens de faire soient absurdes ? Elles n’ont rien de contraire au principe de contradiction. Sans doute elles ne sauraient se réaliser sans que le principe de raison suffisante semble violé. Mais pour justifier une définition aussi fondamentale, j’aimerais mieux un autre garant. V Mais ce n’est pas tout. Dans la réalité physique, une cause ne produit pas un effet, mais une multitude de causes distinctes contribuent à le produire, sans qu’on ait aucun moyen de discerner la part de chacune d’elles. Les physiciens cherchent à faire cette distinction ; mais ils ne la font qu’à peu près, et quelques progrès qu’ils fassent, ils ne la feront jamais qu’à peu près. Il est à peu près vrai que le mouvement du pendule est dû uniquement à l’attraction de la Terre ; mais en toute rigueur, il n’est pas jusqu’à l’attraction de Sirius qui n’agisse sur le pendule. Dans ces conditions, il est clair que les causes qui ont produit un certain effet ne se reproduiront jamais qu’à peu près. Et alors nous devons modifier notre postulat et notre définition. Au lieu de dire : « Les mêmes causes mettent le même temps à produire les mêmes effets. » Nous devons dire : « Des causes à peu près identiques mettent à peu près le même temps pour produire à peu près les mêmes effets. » Notre définition n’est donc plus qu’approchée. D’ailleurs, comme le fait très justement remarquer M. Calinon dans un mémoire récent (Étude sur les diverses grandeurs, Paris, Gauthier-Villars, 1897) : « Une des circonstances d’un phénomène quelconque est la vitesse de la rotation de la terre ; si cette vitesse de rotation varie, elle constitue, dans la reproduction de ce phénomène une circonstance qui ne reste plus identique à elle-même. Mais supposer cette vitesse de rotation constante, c’est supposer qu’on sait mesurer le temps. » Notre définition n’est donc pas encore satisfaisante ; ce n’est certainement pas celle qu’adoptent implicitement les astronomes dont je parlais plus haut, quand ils affirment que la rotation terrestre va en se ralentissant. Quel sens a dans leur bouche cette affirmation ? Nous ne pouvons le comprendre qu’en analysant les preuves qu’ils donnent de leur proposition. Ils disent d’abord que le frottement des marées produisant de la chaleur doit détruire de la force vive. Ils invoquent donc le principe des forces vives ou de la conservation de l’énergie. Ils disent ensuite que l’accélération séculaire de la lune, calculée d’après la loi de Newton, serait plus petite que celle qui est déduite des observations, si on ne faisait la correction relative au ralentissement de la rotation terrestre. Ils invoquent donc la loi de Newton. En d’autres termes, ils définissent la durée de la façon suivante : le temps doit être défini de telle façon que la loi de Newton et celle des forces vives soient vérifiées. La loi de Newton est une vérité d’expérience ; comme telle elle n’est qu’approximative, ce qui montre que nous n’avons encore qu’une définition par à peu près. Si nous supposons maintenant que l’on adopte une autre manière de mesurer le temps, les expériences sur lesquelles est fondée la loi de Newton n’en conserveraient pas moins le même sens. Seulement, l’énoncé de la loi serait différent, parce qu’il serait traduit dans un autre langage ; il serait évidemment beaucoup moins simple. De sorte que la définition implicitement adoptée par les astronomes peut se résumer ainsi : Le temps doit être défini de telle façon que les équations de la mécanique soient aussi simples que possible. En d’autres termes, il n’y a pas une manière de mesurer le temps qui soit plus vraie qu’une autre ; celle qui est généralement adoptée est seulement plus commode. De deux horloges, nous n’avons pas le droit de dire que l’une marche bien et que l’autre marche mal ; nous pouvons dire seulement qu’on a avantage à s’en rapporter aux indications de la première. La difficulté dont nous venons de nous occuper a été, je l’ai dit, souvent signalée ; parmi les ouvrages les plus récents où il en est question, je citerai, outre l’opuscule de M. Calinon, le traité de mécanique de M. Andrade. VI La seconde difficulté a jusqu’ici beaucoup moins attiré l’attention ; elle est cependant tout à fait analogue à la précédente ; et même, logiquement, j’aurais dû en parler d’abord. Deux phénomènes psychologiques se passent dans deux consciences différentes ; quand je dis qu’ils sont simultanés, qu’est-ce que je veux dire ? Quand je dis qu’un phénomène physique, qui se passe en dehors de toute conscience est antérieur ou postérieur à un phénomène psychologique, qu’est-ce que je veux dire ? En 1572, Tycho-Brahé remarqua dans le ciel une étoile nouvelle. Une immense conflagration s’était produite dans quelque astre très lointain ; mais elle s’était produite longtemps auparavant ; il avait fallu pour le moins deux cents ans, avant que la lumière partie de cette étoile eût atteint notre terre. Cette conflagration était donc antérieure à la découverte de l’Amérique. Eh bien, quand je dis cela, quand je considère ce phénomène gigantesque qui n’a peut-être eu aucun témoin, puisque les satellites de cette étoile n’ont peut-être pas d’habitants, quand je dis que ce phénomène est antérieur à la formation de l’image visuelle de l’île d’Española dans la conscience de Christophe Colomb, qu’est-ce que je veux dire ? Il suffit d’un peu de réflexion pour comprendre que toutes ces affirmations n’ont par elles-mêmes aucun sens. Elles ne peuvent en avoir un que par suite d’une convention. VII Nous devons d’abord nous demander comment on a pu avoir l’idée de faire rentrer dans un même cadre tant de mondes impénétrables les uns aux autres. Nous voudrions nous représenter l’univers extérieur, et ce n’est qu’à ce prix que nous croirions le connaître. Cette représentation, nous ne l’aurons jamais nous le savons : notre infirmité est trop grande. Nous voulons au moins que l’on puisse concevoir une intelligence infinie pour laquelle cette représentation serait possible, une sorte de grande conscience qui verrait tout, et qui classerait tout dans son temps, comme nous classons, dans notre temps, le peu que nous voyons. Cette hypothèse est bien grossière et incomplète ; car cette intelligence suprême ne serait qu’un demi-dieu ; infinie en un sens, elle serait limitée en un autre, puisqu’elle n’aurait du passé qu’un souvenir imparfait ; et elle n’en pourrait avoir d’autre, puisque sans cela tous les souvenirs lui seraient également présents et qu’il n’y aurait pas de temps pour elle. Et cependant quand nous parlons du temps, pour tout ce qui se passe en dehors de nous, n’adoptons-nous pas inconsciemment cette hypothèse ; ne nous mettons-nous pas à la place de ce dieu imparfait ; et les athées eux- mêmes ne se mettent-ils pas à la place où serait Dieu, s’il existait ? Ce que je viens de dire nous montre peut-être pourquoi nous avons cherché à faire rentrer tous les phénomènes physiques dans un même cadre. Mais cela ne peut passer pour une définition de la simultanéité, puisque cette intelligence hypothétique, si même elle existait, serait impénétrable pour nous. Il faut donc chercher autre chose. VIII Les définitions ordinaires qui conviennent pour le temps psychologique, ne pourraient plus nous suffire. Deux faits psychologiques simultanés sont liés si étroitement que l’analyse ne peut les séparer sans les mutiler. En est- il de même pour deux faits physiques ? Mon présent n’est-il pas plus près de mon passé d’hier que du présent de Sirius ? On a dit aussi que deux faits doivent être regardés comme simultanés quand l’ordre de leur succession peut être interverti à volonté. Il est évident que cette définition ne saurait convenir pour deux faits physiques qui se produisent à de grandes distances l’un de l’autre, et que, en ce qui les concerne, on ne comprend même plus ce que peut être cette réversibilité ; d’ailleurs, c’est d’abord la succession même qu’il faudrait définir. IX Cherchons donc à nous rendre compte de ce qu’on entend par simultanéité ou antériorité, et pour cela analysons quelques exemples. J’écris une lettre ; elle est lue ensuite par l’ami à qui je l’ai adressée. Voilà deux faits qui ont eu pour théâtre deux consciences différentes. En écrivant cette lettre, j’en ai possédé l’image visuelle, et mon ami a possédé à son tour cette même image en lisant la lettre. Bien que ces deux faits se passent dans des mondes impénétrables, je n’hésite pas à regarder le premier comme antérieur au second, parce que je crois qu’il en est la cause. J’entends le tonnerre, et je conclus qu’il y a eu une décharge électrique ; je n’hésite pas à considérer le phénomène physique comme antérieur à l’image sonore subie par ma conscience, parce que je crois qu’il en est la cause. Voilà donc la règle que nous suivons, et la seule que nous puissions suivre ; quand un phénomène nous apparaît comme la cause d’un autre, nous le regardons comme antérieur. C’est donc par la cause que nous définissons le temps ; mais le plus souvent, quand deux faits nous apparaissent liés par une relation constante, comment reconnaissons-nous lequel est la cause et lequel est l’effet ? Nous admettons que le fait antérieur, l’antécédent, est la cause de l’autre, du conséquent. C’est alors par le temps que nous définissons la cause. Comment se tirer de cette pétition de principe ? Nous disons tantôt post hoc, ergo propter hoc ; tantôt propter hoc, ergo post hoc ; sortira-t-on de ce cercle vicieux ? X Voyons donc, non pas comment on parvient à s’en tirer, car on n’y parvient pas complètement, mais comment on cherche à s’en tirer. J’exécute un acte volontaire A et je subis ensuite une sensation D, que je regarde comme une conséquence de l’acte A ; d’autre part, pour une raison quelconque, j’infère que cette conséquence n’est pas immédiate ; mais qu’il s’est accompli en dehors de ma conscience deux faits B et C dont je n’ai pas été témoin et de telle façon que B soit l’effet de A, que C soit celui de B, et D celui de C. Mais pourquoi cela ? Si je crois avoir des raisons pour regarder les quatre faits A, B, C, D, comme liés l’un à l’autre par un lien de causalité, pourquoi les ranger dans l’ordre causal A B C D et en même temps dans l’ordre chronologique A B C D plutôt que dans tout autre ordre ? Je vois bien que dans l’acte A j’ai le sentiment d’avoir été actif, tandis qu’en subissant la sensation D, j’ai celui d’avoir été passif. C’est pourquoi je regarde A comme la cause initiale et D comme l’effet ultime ; c’est pourquoi je range A au commencement de la chaîne et D à la fin ; mais pourquoi mettre B avant C plutôt que C avant B ? Si l’on se pose cette question, on répondra ordinairement : on sait bien que c’est B qui est la cause de C, puisqu’on voit toujours B se produire avant C. Ces deux phénomènes, quand on est témoin, se passent dans un certain ordre ; quand des phénomènes analogues se produisent sans témoin, il n’y a pas de raison pour que cet ordre soit interverti. Sans doute, mais qu’on y prenne garde ; nous ne connaissons jamais directement les phénomènes physiques B et C ; ce que nous connaissons, ce sont des sensations B′ et C′ produites respectivement par B et par C. Notre conscience nous apprend immédiatement que B′ précède C′ et nous admettons que B et C se succèdent dans le même ordre. Cette règle paraît en effet bien naturelle, et cependant on est souvent conduit à y déroger. Nous n’entendons le bruit du tonnerre que quelques secondes après la décharge électrique du nuage. De deux coups de foudre, l’un lointain, l’autre rapproché, le premier ne peut-il pas être antérieur au second, bien que le bruit du second nous parvienne avant celui du premier ? XI Autre difficulté ; avons-nous bien le droit de parler de la cause d’un phénomène ? si toutes les parties de l’univers sont solidaires dans une certaine mesure, un phénomène quelconque ne sera pas l’effet d’une cause unique, mais la résultante de causes infiniment nombreuses ; il est, dit-on souvent, la conséquence de l’état de l’univers un instant auparavant. Comment énoncer des règles applicables à des circonstances aussi complexes ? et pourtant ce n’est qu’à ce prix que ces règles pourront être générales et rigoureuses. Pour ne pas nous perdre dans cette infinie complexité, faisons une hypothèse plus simple ; considérons trois astres, par exemple, le Soleil, Jupiter et Saturne ; mais, pour plus de simplicité, regardons-les comme réduits à des points matériels et isolés du reste du monde. Les positions et les vitesses des trois corps à un instant donné suffisent pour déterminer leurs positions et leurs vitesses à l’instant suivant, et par conséquent à un instant quelconque. Leur position à l’instant t déterminent leurs positions à l’instant t + h, aussi bien que leurs positions à l’instant t – h. Il y a même plus ; la position de Jupiter à l’instant t, jointe à celle de Saturne à l’instant t + a, détermine la position de Jupiter à un instant quelconque et celle de Saturne à un instant quelconque. L’ensemble des positions qu’occupent Jupiter à l’instant t + ε et Saturne à l’instant t + a + ε est lié à l’ensemble des positions qu’occupent Jupiter à l’instant t et Saturne à l’instant t + a, par des lois aussi précises que celle de Newton, quoique plus compliquées. Dès lors pourquoi ne pas regarder l’un de ces ensembles comme la cause de l’autre, ce qui conduirait à considérer comme simultanés l’instant t de Jupiter et l’instant t + a de Saturne ? Il ne peut y avoir à cela que des raisons de commodités et de simplicité, fort puissantes, il est vrai. XII Mais passons à des exemples moins artificiels ; pour nous rendre compte de la définition implicitement admise par les savants, voyons-les à l’œuvre et cherchons suivant quelles règles ils recherchent la simultanéité. Je prendrai deux exemples simples ; la mesure de la vitesse de la lumière et la détermination des longitudes. Quand un astronome me dit que tel phénomène stellaire, que son télescope lui révèle en ce moment, s’est cependant passé il y a cinquante ans, je cherche ce qu’il veut dire et pour cela, je lui demanderai d’abord comment il le sait, c’est-à-dire comment il a mesuré la vitesse de la lumière. Il a commencé par admettre que la lumière a une vitesse constante, et en particulier que sa vitesse est la même dans toutes les directions. C’est là un postulat sans lequel aucune mesure de cette vitesse ne pourrait être tentée. Ce postulat ne pourra jamais être vérifié directement par l’expérience ; il pourrait être contredit par elle, si les résultats des diverses mesures n’étaient pas concordants. Nous devons nous estimer heureux que cette contradiction n’ait pas lieu et que les petites discordances qui peuvent se produire puissent s’expliquer facilement. Le postulat, en tout cas, conforme au principe de la raison suffisante, a été accepté par tout le monde ; ce que je veux retenir, c’est qu’il nous fournit une règle nouvelle pour la recherche de la simultanéité, entièrement différente de celle que nous avions énoncée plus haut. Ce postulat admis, voyons comment on a mesuré la vitesse de la lumière. On sait que Rœmer s’est servi des éclipses, des satellites de Jupiter, et a cherché de combien l’événement retardait sur la prédiction. Mais cette prédiction comment la fait-on ? C’est à l’aide des lois astronomiques, par exemple de la loi de Newton. Les faits observés ne pourraient-ils pas tout aussi bien s’expliquer si on attribuait à la vitesse de la lumière une valeur un peu différente de la valeur adoptée, et si on admettait que la loi de Newton n’est qu’approchée ? Seulement on serait conduit à remplacer la loi de Newton par une autre plus compliquée. Ainsi on adopte pour la vitesse de la lumière une valeur telle que les lois astronomiques compatibles avec cette valeur soient aussi simples que possible. Quand les marins ou les géographes déterminent une longitude, ils ont précisément à résoudre le problème qui nous occupe ; ils doivent, sans être à Paris, calculer l’heure de Paris. Comment s’y prennent-ils ? Ou bien ils emportent un chronomètre réglé à Paris. Le problème qualitatif de la simultanéité est ramené au problème quantitatif de la mesure du temps. Je n’ai pas à revenir sur les difficultés relatives à ce dernier problème, puisque j’y ai longuement insisté plus haut. Ou bien ils observent un phénomène astronomique tel qu’une éclipse de lune et ils admettent que ce phénomène est aperçu simultanément de tous les points du globe. Cela n’est pas tout à fait vrai, puisque la propagation de la lumière n’est pas instantanée ; si on voulait une exactitude absolue, il y aurait une correction à faire d’après une règle compliquée. Ou bien enfin, ils se servent du télégraphe. Il est clair d’abord que la réception du signal à Berlin, par exemple, est postérieure à l’expédition de ce même signal de Paris. C’est la règle de la cause et de l’effet analysée plus haut. Mais postérieure, de combien ? En général, on néglige la durée de la transmission et on regarde les deux événements comme simultanés. Mais, pour être rigoureux, il faudrait faire encore une petite correction par un calcul compliqué ; on ne la fait pas dans la pratique, parce qu’elle serait beaucoup plus faible que les erreurs d’observation ; sa nécessité théorique n’en subsiste pas moins à notre point de vue, qui est celui d’une définition rigoureuse. De cette discussion, je veux retenir deux choses : 1° Les règles appliquées sont très variées. 2° Il est difficile de séparer le problème qualitatif de la simultanéité du problème quantitatif de la mesure du temps ; soit qu’on se serve d’un chronomètre, soit qu’on ait à tenir compte d’une vitesse de transmission, comme celle de la lumière, car on ne saurait mesurer une pareille vitesse sans mesurer un temps. XIII Il convient de conclure. Nous n’avons pas l’intuition directe de la simultanéité, pas plus que celle de l’égalité de deux durées. Si nous croyons avoir cette intuition, c’est une illusion. Nous y suppléons à l’aide de certaines règles que nous appliquons presque toujours sans nous en rendre compte. Mais quelle est la nature de ces règles ? Pas de règle générale, pas de règle rigoureuse ; une multitude de petites règles applicables à chaque cas particulier. Ces règles ne s’imposent pas à nous et on pourrait s’amuser à en inventer d’autres ; cependant on ne saurait s’en écarter sans compliquer beaucoup l’énoncé des lois de la physique, de la mécanique, de l’astronomie. Nous choisissons donc ces règles, non parce qu’elles sont vraies, mais parce qu’elles sont les plus commodes, et nous pourrions les résumer en disant : « La simultanéité de deux événements, ou l’ordre de leur succession, l’égalité de deux durées, doivent être définies de telle sorte que l’énoncé des lois naturelles soit aussi simple que possible. En d’autres termes, toutes ces règles, toutes ces définitions ne sont que le fruit d’un opportunisme inconscient. »     CHAPITRE III La Notion d’Espace § 1. — INTRODUCTION Dans les articles que j’ai précédemment consacrés à l’espace, j’ai surtout insisté sur les problèmes soulevés par la géométrie non-euclidienne, en laissant presque complètement de côté d’autres questions plus difficiles à aborder, telles que celles qui se rapportent au nombre des dimensions. Toutes les géométries que j’envisageais avaient ainsi un fond commun, ce continuum à trois dimensions qui était le même pour toutes et qui ne se différenciait que par les figures qu’on y traçait ou quand on prétendait le mesurer. Dans ce continuum, primitivement amorphe, on peut imaginer un réseau de lignes et de surfaces, on peut convenir ensuite de regarder les mailles de ce réseau comme égales entre elles, et c’est seulement après cette convention que ce continuum, devenu mesurable, devient l’espace euclidien ou l’espace non-euclidien. De ce continuum amorphe peut donc sortir indifféremment l’un ou l’autre des deux espaces, de même que sur une feuille de papier blanc on peut tracer indifféremment une droite ou un cercle. Dans l’espace nous connaissons des triangles rectilignes dont la somme des angles est égale à deux droites ; mais nous connaissons également des triangles curvilignes dont la somme des angles est plus petite que deux droites. L’existence des uns n’est pas plus douteuse que celle des autres. Donner aux côtés des premiers le nom de droites, c’est adopter la géométrie euclidienne ; donner aux côtés des derniers le nom de droites, c’est adopter la géométrie non-euclidienne. De sorte que, demander quelle géométrie convient-il d’adopter, c’est demander : à quelle ligne convient-il de donner le nom de droite ? Il est évident que l’expérience ne peut résoudre une pareille question ; on ne demanderait pas, par exemple, à l’expérience de décider si je dois appeler une droite AB ou bien CD. D’un autre côté, je ne puis dire non plus que je n’ai pas le droit de donner le nom de droites aux côtés des triangles non-euclidiens, parce qu’ils ne sont pas conformes à l’idée éternelle de droite que je possède par intuition. Je veux bien que j’aie l’idée intuitive du côté du triangle euclidien, mais j’ai également l’idée intuitive du côté du triangle non euclidien. Pourquoi aurai-je le droit d’appliquer le nom de droite à la première de ces idées et pas à la seconde ? En quoi ces deux syllabes feraient-elles partie intégrante de cette idée intuitive ? Évidemment quand nous disons que la droite euclidienne est une vraie droite et que la droite non-euclidienne n’est pas une vraie droite, nous voulons dire tout simplement que la première idée intuitive correspond à un objet plus remarquable que la seconde. Mais comment jugeons-nous que cet objet est plus remarquable ? C’est ce que j’ai recherché dans Science et Hypothèse. C’est là que nous avons vu intervenir l’expérience ; si la droite euclidienne est plus remarquable que la droite non-euclidienne, c’est avant tout qu’elle diffère peu de certains objets naturels remarquables dont la droite non-euclidienne diffère beaucoup. Mais, dira-t-on, la définition de la droite non-euclidienne est artificielle ; essayons un instant de l’adopter, nous verrons que deux cercles de rayon différent recevront tous deux le nom de droites non-euclidiennes, tandis que de deux cercles de même rayon, l’un pourra satisfaire à la définition sans que l’autre y satisfasse, et alors si nous transportons une de ces soi-disant droites sans la déformer, elle cessera d’être une droite. Mais de quel droit considérons-nous comme égales ces deux figures que les géomètres euclidiens appellent deux cercles de même rayon ? C’est parce qu’en transportant l’une d’elles sans la déformer on peut la faire coïncider avec l’autre. Et pourquoi disons-nous que ce transport s’est effectué sans déformation ? Il est impossible d’en donner une bonne raison. Parmi tous les mouvements concevables, il y en a dont les géomètres euclidiens disent qu’ils ne sont pas accompagnés de déformation ; mais il y en a d’autres dont les géomètres non-euclidiens diraient qu’ils ne sont pas accompagnés de déformation. Dans les premiers, dits mouvements euclidiens, les droites euclidiennes restent des droites euclidiennes, et les droites non-euclidiennes ne restent pas des droites non- euclidiennes ; dans les mouvements de la seconde sorte, ou mouvements non-euclidiens, les droites non-euclidiennes restent des droites non- euclidiennes et les droites euclidiennes ne restent pas des droites euclidiennes. On n’a donc pas démontré qu’il était déraisonnable d’appeler droites les côtés des triangles non-euclidiens ; on a démontré seulement que cela serait déraisonnable si on continuait d’appeler mouvements sans déformation les mouvements euclidiens ; mais on aurait montré tout aussi bien qu’il serait déraisonnable d’appeler droites les côtés des triangles euclidiens si l’on appelait mouvements sans déformation les mouvements non-euclidiens. Maintenant quand nous disons que les mouvements euclidiens sont les vrais mouvements sans déformation, que voulons-nous dire ? Nous voulons dire simplement qu’ils sont plus remarquables que les autres ; et pourquoi sont-ils plus remarquables ? c’est parce que certains corps naturels remarquables, les corps solides, subissent des mouvements à peu près pareils. Et alors quand nous demandons : peut-on imaginer l’espace non- euclidien ? cela veut dire : pouvons-nous imaginer un monde où il y aurait des objets naturels remarquables affectant à peu près la forme des droites non-euclidiennes, et des corps naturels remarquables subissant fréquemment des mouvements à peu près pareils aux mouvements non- euclidiens ? J’ai montré dans Science et Hypothèse qu’à cette question il faut répondre oui. On a souvent observé que si tous les corps de l’Univers venaient à se dilater simultanément et dans la même proportion, nous n’aurions aucun moyen de nous en apercevoir, puisque tous nos instruments de mesure grandiraient en même temps que les objets mêmes qu’ils servent à mesurer. Le monde, après cette dilatation, continuerait son train sans que rien vienne nous avertir d’un événement aussi considérable. En d’autres termes, deux mondes qui seraient semblables l’un à l’autre (en entendant le mot similitude au sens du 3 e livre de géométrie) seraient absolument indiscernables. Mais il y a plus, non seulement des mondes seront indiscernables s’ils sont égaux ou semblables, c’est-à-dire si l’on peut passer de l’un à l’autre en changeant les axes de coordonnées, ou en changeant l’échelle à laquelle sont rapportées les longueurs ; mais ils seront encore indiscernables si l’on peut passer de l’un à l’autre par une « transformation ponctuelle » quelconque. Je m’explique. Je suppose qu’à chaque point de l’un corresponde un point de l’autre et un seul, et inversement ; et de plus que les coordonnées d’un point soient des fonctions continues, d’ailleurs tout à fait quelconques, des coordonnées du point correspondant. Je suppose d’autre part qu’à chaque objet du premier monde, corresponde dans le second un objet de même nature placé précisément au point correspondant. Je suppose enfin que cette correspondance réalisée à l’instant initial, se conserve indéfiniment. Nous n’aurions aucun moyen de discerner ces deux mondes l’un de l’autre. Quand on parle de la relativité de l’espace, on ne l’entend pas d’ordinaire dans un sens aussi large ; c’est ainsi cependant qu’il conviendrait de l’entendre. Si l’un de ces univers est notre monde euclidien, ce que ses habitants appelleront droite, ce sera notre droite euclidienne ; mais ce que les habitants du second monde appelleront droite, ce sera une courbe qui jouira des mêmes propriétés par rapport au monde qu’ils habitent et par rapport aux mouvements qu’ils appelleront mouvements sans déformation ; leur géométrie sera donc la géométrie euclidienne, mais leur droite ne sera pas notre droite euclidienne. Ce sera sa transformée par la transformation ponctuelle qui fait passer de notre monde au leur ; les droites de ces hommes ne seront pas nos droites, mais elles auront entre elles les mêmes rapports que nos droites entre elles, c’est dans ce sens que je dis que leur géométrie sera la nôtre. Si alors nous voulons à toute force proclamer qu’ils se trompent, que leur droite n’est pas la vraie droite, si nous ne voulons pas confesser qu’une pareille affirmation n’a aucun sens, du moins devrons- nous avouer que ces gens n’ont aucune espèce de moyen de s’apercevoir de leur erreur. § 2. — LA GÉOMÉTRIE QUALITATIVE Tout cela est relativement facile à comprendre et je l’ai déjà si souvent répété que je crois inutile de m’étendre davantage sur ce sujet. L’espace euclidien n’est pas une forme imposée à notre sensibilité, puisque nous pouvons imaginer l’espace non-euclidien ; mais les deux espaces euclidien et non-euclidien ont un fond commun, c’est ce continuum amorphe dont je parlais au début ; de ce continuum nous pouvons tirer soit l’espace euclidien, soit l’espace lobatchewskien, de même que nous pouvons, en y traçant une graduation convenable, transformer un thermomètre non gradué soit en thermomètre Fahrenheit, soit en thermomètre Réaumur. Et alors une question se pose : ce continuum amorphe, que notre analyse a laissé subsister, n’est-il pas une forme imposée à notre sensibilité ? Nous aurions élargi la prison dans laquelle cette sensibilité est enfermée, mais ce serait toujours une prison. Ce continu possède un certain nombre de propriétés, exemptes de toute idée de mesure. L’étude de ces propriétés est l’objet d’une science qui a été cultivée par plusieurs grands géomètres et en particulier par Riemann et Betti et qui a reçu le nom d’Analysis Sitûs. Dans cette science, on fait abstraction de toute idée quantitative et par exemple, si on constate que sur une ligne le point B est entre les points A et C, on se contentera de cette constatation et on ne s’inquiétera pas de savoir si la ligne ABC est droite ou courbe, ni si la longueur AB est égale à la longueur BC, ou si elle est deux fois plus grande. Les théorèmes de l’Analysis Sitûs ont donc ceci de particulier qu’ils resteraient vrais si les figures étaient copiées par un dessinateur malhabile qui altérerait grossièrement toutes les proportions et remplacerait les droites par des lignes plus ou moins sinueuses. En termes mathématiques, ils ne sont pas altérés par une « transformation ponctuelle » quelconque. On a dit souvent que la géométrie métrique était quantitative, tandis que la géométrie projective était purement qualitative ; cela n’est pas tout à fait vrai : ce qui distingue la droite des autres lignes, ce sont encore des propriétés qui restent quantitatives à certains égards. La véritable géométrie qualitative c’est donc l’Analysis Sitûs. Les mêmes questions qui se posaient à propos des vérités de la géométrie euclidienne, se posent de nouveau à propos des théorèmes de l’Analysis Sitûs. Peuvent-ils être obtenus par un raisonnement déductif ? Sont-ce des conventions déguisées ? Sont-ce des vérités expérimentales ? Sont-ils les caractères d’une forme imposée soit à notre sensibilité, soit à notre entendement ? Je veux simplement observer que les deux dernières solutions s’excluent, ce dont tout le monde ne s’est pas toujours bien rendu compte. Nous ne pouvons pas admettre à la fois qu’il est impossible d’imaginer l’espace à quatre dimensions et que l’expérience nous démontre que l’espace a trois dimensions. L’expérimentateur pose à la nature une interrogation : est-ce ceci ou cela ? et il ne peut la poser sans imaginer les deux termes de l’alternative. S’il était impossible de s’imaginer l’un de ces termes, il serait inutile et d’ailleurs impossible de consulter l’expérience. Nous n’avons pas besoin d’observation pour savoir que l’aiguille d’une horloge n’est pas sur la division 15 du cadran, puisque nous savons d’avance qu’il n’y en a que 12, et nous ne pourrions pas regarder à la division 15 pour voir si l’aiguille s’y trouve, puisque cette division n’existe pas. Remarquons également qu’ici les empiristes sont débarrassés de l’une des objections les plus graves qu’on peut diriger contre eux, de celle qui rend absolument vains d’avance tous leurs efforts pour appliquer leur thèse aux vérités de la géométrie euclidienne. Ces vérités sont rigoureuses et toute expérience ne peut être qu’approchée. En Analysis Sitûs les expériences approchées peuvent suffire pour donner un théorème rigoureux et, par exemple, si l’on voit que l’espace ne peut avoir ni deux ou moins de deux dimensions, ni quatre ou plus de quatre, on est certain qu’il en a exactement 3, car il ne saurait en avoir 2 et demi ou 3 et demi. De tous les théorèmes de l’Analysis Sitûs, le plus important est celui que l’on exprime en disant que l’espace a trois dimensions. C’est de celui-là que nous allons nous occuper, et nous poserons la question en ces termes : Quand nous disons que l’espace a trois dimensions, qu’est-ce que nous voulons dire ? § 3. — LE CONTINU PHYSIQUE À PLUSIEURS DIMENSIONS J’ai expliqué dans Science et Hypothèse d’où nous vient la notion de la continuité physique et comment a pu en sortir celle de la continuité mathématique. Il arrive que nous sommes capables de distinguer deux impressions l’une de l’autre, tandis que nous ne saurions distinguer chacune d’elles d’une même troisième. C’est ainsi que nous pouvons discerner facilement un poids de 12 grammes d’un poids de 10 grammes, tandis qu’un poids de 11 grammes ne saurait se distinguer ni de l’un, ni de l’autre. Une pareille constatation, traduite en symboles, s’écrirait :             A = B,  B = C,  A < C. Ce serait là la formule du continu physique, tel que nous le donne l’expérience brute, d’où une contradiction intolérable que l’on a levée par l’introduction du continu mathématique. Celui-ci est une échelle dont les échelons (nombres commensurables ou incommensurables) sont en nombre infini, mais sont extérieurs les uns aux autres, au lieu d’empiéter les uns sur les autres comme le font, conformément à la formule précédente, les éléments du continu physique. Le continu physique est pour ainsi dire une nébuleuse non résolue, les instruments les plus perfectionnés ne pourraient parvenir à la résoudre ; sans doute si on évaluait les poids avec une bonne balance, au lieu de les apprécier à la main, on distinguerait le poids de 11 grammes de ceux de 10 et de 12 grammes et notre formule deviendrait :             A < B, B < C, A < C. Mais on trouverait toujours entre A et B et entre B et C de nouveaux éléments D et E tels que :       A = D, D = B, A < B ; B = E, E = C, B < C, et la difficulté n’aurait fait que reculer et la nébuleuse ne serait toujours pas résolue ; c’est l’esprit seul qui peut la résoudre et c’est le continu mathématique qui est la nébuleuse résolue en étoiles. Jusqu’à présent toutefois nous n’avons pas introduit la notion du nombre des dimensions. Que voulons-nous dire quand nous disons qu’un continu mathématique ou qu’un continu physique a deux ou trois dimensions ? Il faut d’abord que nous introduisions la notion de coupure, en nous attachant d’abord à l’étude des continus physiques. Nous avons vu ce qui caractérise le continu physique, chacun des éléments de ce continu consiste en un ensemble d’impressions ; et il peut arriver ou bien qu’un élément ne peut pas être discerné d’un autre élément du même continu, si ce nouvel élément correspond à un ensemble d’impressions trop peu différentes, ou bien au contraire que la distinction est possible ; enfin il peut se faire que deux éléments, indiscernables d’un même troisième, peuvent néanmoins être discernés l’un de l’autre. Cela posé, si A et B sont deux éléments discernables d’un continu C, on pourra trouver une série d’éléments             E 1 , E 2 , ....., E n appartenant tous à ce même continu C et tels que chacun d’eux est indiscernable du précédent, que E 1 est indiscernable de A et E n indiscernable de B. On pourra donc aller de A à B par un chemin continu et sans quitter C. Si cette condition est remplie pour deux éléments quelconques A et B du continu C, nous pourrons dire que ce continu C est d’un seul tenant. Distinguons maintenant quelques-uns des éléments de C qui pourront ou bien être tous discernables les uns des autres, ou former eux-mêmes un ou plusieurs continus. L’ensemble des éléments ainsi choisis arbitrairement parmi tous ceux de C formera ce que j’appellerai la ou les coupures. Reprenons sur C deux éléments quelconques A et B. Ou bien nous pourrons encore trouver une série d’éléments             E 1 , E 2 , ....., E n tels : 1° qu’ils appartiennent tous à C ; 2° que chacun d’eux soit indiscernable du suivant ; E 1 indiscernable de A et E n de B ; 3° et en outre qu’aucun des éléments E ne soit indiscernable d’aucun des éléments de la coupure. Ou bien au contraire dans toutes les séries E 1 , E 2 , ....., E n satisfaisant aux deux premières conditions, il y aura un élément E indiscernable de l’un des éléments de la coupure. Dans le 1 er cas, nous pouvons aller de A à B par un chemin continu sans quitter C et sans rencontrer les coupures ; dans le second cas cela est impossible. Si alors pour deux éléments quelconques A et B du continu C, c’est toujours le premier cas qui se présente, nous dirons que C reste d’un seul tenant malgré les coupures. Ainsi si nous choisissons les coupures d’une certaine manière, d’ailleurs arbitraire, il pourra se faire ou bien que le continu reste d’un seul tenant ou qu’il ne reste pas d’un seul tenant ; dans cette dernière hypothèse nous dirons alors qu’il est divisé par les coupures. On remarquera que toutes ces définitions sont construites en partant uniquement de ce fait très simple, que deux ensembles d’impressions, tantôt peuvent être discernés, tantôt ne peuvent pas l’être. Cela posé, si pour diviser un continu, il suffit de considérer comme coupures un certain nombre d’éléments tous discernables les uns des autres, on dit que ce continu est à une dimension ; si au contraire pour diviser un continu, il est nécessaire de considérer comme coupures un système d’éléments formant eux-mêmes un ou plusieurs continus, nous dirons que ce continu est à plusieurs dimensions. Si pour diviser un continu C, il suffit de coupures formant un ou plusieurs continus à une dimension, nous dirons que C est un continu à deux dimensions ; s’il suffit de coupures, formant un ou plusieurs continus à deux dimensions au plus, nous dirons que C est un continu à trois dimensions ; et ainsi de suite. Pour justifier cette définition, il faut voir si c’est bien ainsi que les géomètres introduisent la notion des trois dimensions au début de leurs ouvrages. Or, que voyons-nous ? Le plus souvent ils commencent par définir les surfaces comme les limites des volumes, ou parties de l’espace, les lignes comme les limites des surfaces, les points comme limites des lignes, et ils affirment que le même processus ne peut être poussé plus loin. C’est bien la même idée ; pour diviser l’espace, il faut des coupures que l’on appelle surfaces ; pour diviser les surfaces il faut des coupures que l’on appelle lignes ; pour diviser les lignes, il faut des coupures que l’on appelle points ; on ne peut aller plus loin et le point ne peut être divisé, le point n’est pas un continu ; alors les lignes, qu’on peut diviser par des coupures qui ne sont pas des continus, seront des continus à une dimension ; les surfaces que l’on peut diviser par des coupures continues à une dimension, seront des continus à deux dimensions, enfin l’espace que l’on peut diviser par des coupures continues à deux dimensions sera un continu à trois dimensions. Ainsi la définition que je viens de donner ne diffère pas essentiellement des définitions habituelles ; j’ai tenu seulement à lui donner une forme applicable non au continu mathématique, mais au continu physique, qui est seul susceptible de représentation et cependant à lui conserver toute sa précision. On voit, d’ailleurs, que cette définition ne s’applique pas seulement à l’espace, que dans tout ce qui tombe sous nos sens, nous retrouvons les caractères du continu physique, ce qui permettrait la même classification ; il serait aisé d’y trouver des exemples de continus de quatre, de cinq dimensions, au sens de la définition précédente ; ces exemples se présentent d’eux-mêmes à l’esprit. J’expliquerais enfin, si j’en avais le temps, que cette science dont je parlais plus haut et à laquelle Riemann a donné le nom d’Analysis Sitûs, nous apprend à faire des distinctions parmi les continus d’un même nombre de dimensions et que la classification de ces continus repose encore sur la considération des coupures. De cette notion est sortie celle du continu mathématique à plusieurs dimensions de la même façon que le continu physique à une dimension avait engendré le continu mathématique à une dimension. La formule             A > C, A = B, B = C qui résumait les données brutes de l’expérience impliquait une contradiction intolérable. Pour s’en affranchir, il a fallu introduire une notion nouvelle en respectant d’ailleurs les caractères essentiels du continu physique à plusieurs dimensions. Le continu mathématique à une dimension comportait une échelle unique dont les échelons en nombre infini correspondaient aux diverses valeurs commensurables ou non d’une même grandeur. Pour avoir le continu mathématique à n dimensions, il suffira de prendre n pareilles échelles dont les échelons correspondront aux diverses valeurs de n grandeurs indépendantes appelées coordonnées. On aura ainsi une image du continu physique à n dimensions, et cette image sera aussi fidèle qu’elle peut l’être du moment qu’on ne veut pas laisser subsister la contradiction dont je parlais plus haut. § 4. — LA NOTION DE POINT Il semble maintenant que la question que nous nous posions au début est résolue. Quand nous disons que l’espace a trois dimensions, dira-t-on, nous voulons dire que l’ensemble des points de l’espace satisfait à la définition que nous venons de donner du continu physique à trois dimensions. Se contenter de cela, ce serait supposer que nous savons ce que c’est que l’ensemble des points de l’espace, ou même qu’un point de l’espace. Or, cela n’est pas aussi simple qu’on pourrait le croire. Tout le monde croit savoir ce que c’est qu’un point, et c’est même parce que nous le savons trop bien que nous croyons n’avoir pas besoin de le définir. Certes on ne peut pas exiger de nous que nous sachions le définir, car en remontant de définition en définition il faut bien qu’il arrive un moment où l’on s’arrête. Mais à quel moment doit-on s’arrêter ? On s’arrêtera d’abord quand on arrivera à un objet qui tombe sous nos sens ou que nous pouvons nous représenter ; la définition deviendra alors inutile, on ne définit pas le mouton à un enfant, on lui dit : voici un mouton. Et alors, nous devons nous demander s’il est possible de se représenter un point de l’espace. Ceux qui répondent oui ne réfléchissent pas qu’ils se représentent en réalité un point blanc fait avec la craie sur un tableau noir ou un point noir fait avec une plume sur un papier blanc, et qu’ils ne peuvent se représenter qu’un objet ou mieux les impressions que cet objet ferait sur leurs sens. Quand ils cherchent à se représenter un point, ils se représentent les impressions que leur feraient éprouver des objets très petits. Il est inutile d’ajouter que deux objets différents, quoique l’un et l’autre très petits, pourront produire des impressions extrêmement différentes, mais je n’insiste pas sur cette difficulté qui exigerait pourtant quelque discussion. Mais ce n’est pas de cela qu’il s’agit ; il ne suffit pas de se représenter un point, il faut se représenter tel point et avoir le moyen de le distinguer d’un autre point. Et en effet, pour que nous puissions appliquer à un continu la règle que j’ai exposée plus haut et par laquelle on peut reconnaître le nombre de ses dimensions, nous devons nous appuyer sur ce fait que deux éléments de ce continu tantôt peuvent et tantôt ne peuvent pas être discernés. Il faut donc que nous sachions dans certains cas nous représenter tel élément et le distinguer d’un autre élément. La question est de savoir si le point que je me représentais il y a une heure, est le même que celui que je me représente maintenant ou si c’est un point différent. En d’autres termes, comment savons-nous si le point occupé par l’objet A à l’instant α est le même que le point occupé par l’objet B à l’instant β, ou mieux encore, qu’est-ce que cela veut dire ? Je suis assis dans ma chambre, un objet est posé sur ma table ; je ne bouge pas pendant une seconde, personne ne touche à l’objet ; je suis tenté de dire que le point A qu’occupait cet objet au début de cette seconde est identique au point B qu’il occupe à la fin ; pas du tout : du point A au point B il y a 30 kilomètres, car l’objet a été entraîné dans le mouvement de la Terre. Nous ne pourrons savoir si un objet, très petit ou non, n’a pas changé de position absolue dans l’espace, et non seulement nous ne pouvons l’affirmer, mais cette affirmation n’a aucun sens et en tout cas ne peut correspondre à aucune représentation. Mais alors nous pouvons nous demander si la position relative d’un objet par rapport à d’autres objets a varié ou non, et d’abord si la position relative de cet objet par rapport à notre corps a varié ; si les impressions que nous cause cet objet n’ont pas changé, nous serons enclins à juger que cette position relative n’a pas changé non plus ; si elles ont changé, nous jugerons que cet objet a changé soit d’état, soit de position relative. Il reste à décider lequel des deux. J’ai expliqué dans Science et Hypothèse comment nous avons été amenés à distinguer les changements de position. J’y reviendrai d’ailleurs plus loin. Nous arrivons donc à savoir si la position relative d’un objet par rapport à notre corps est ou non restée la même. Si maintenant nous voyons que deux objets ont conservé leur position relative par rapport à notre corps, nous concluons que la position relative de ces deux objets l’un par rapport à l’autre n’a pas changé ; mais nous n’arrivons à cette conclusion que par un raisonnement indirect. La seule chose que nous connaissions directement c’est la position relative des objets par rapport à notre corps. A fortiori ce n’est que par un raisonnement indirect que nous croyons savoir (et encore cette croyance est-elle trompeuse) si la position absolue de l’objet a changé. En somme, le système d’axes de coordonnées auxquels nous rapportons naturellement tous les objets extérieurs, c’est un système d’axes invariablement lié à notre corps, et que nous transportons partout avec nous. Il est impossible de se représenter l’espace absolu ; quand je veux me représenter simultanément des objets et moi-même en mouvement dans l’espace absolu, en réalité je me représente moi-même immobile et regardant se mouvoir autour de moi divers objets et un homme qui est extérieur à moi, mais que je conviens d’appeler moi. La difficulté sera-t-elle résolue quand on consentira à tout rapporter à ces axes liés à notre corps ? Savons-nous cette fois ce que c’est qu’un point défini ainsi par sa position relative par rapport à nous. Bien des gens répondront oui et diront qu’ils « localisent » les objets extérieurs. Qu’est-ce à dire ? Localiser un objet, cela veut dire simplement se représenter les mouvements qu’il faudrait faire pour l’atteindre ; je m’explique ; il ne s’agit pas de se représenter les mouvements eux-mêmes dans l’espace, mais uniquement de se représenter les sensations musculaires qui accompagnent ces mouvements et qui ne supposent pas la préexistence de la notion d’espace. Si nous supposons deux objets différents qui viennent successivement occuper la même position relative par rapport à nous, les impressions que nous causeront ces deux objets seront très différentes ; si nous les localisons au même point, c’est simplement parce qu’il faut faire les mêmes mouvements pour les atteindre ; à part cela, on ne voit pas bien ce qu’ils pourraient avoir de commun. Mais, étant donné un objet, on peut concevoir plusieurs séries différentes de mouvements qui permettraient également de l’atteindre. Si alors nous nous représentons un point, en nous représentant la série des sensations musculaires qui accompagneraient les mouvements qui permettraient d’atteindre ce point, on aura plusieurs manières entièrement différentes de se représenter un même point. Si l’on ne veut pas se contenter de cette solution, si on veut faire intervenir par exemple les sensations visuelles à côté des sensations musculaires, on aura une ou deux manières de plus de se représenter ce même point et la difficulté n’aura fait qu’augmenter. De toutes façons, la question suivante se pose : pourquoi jugeons-nous que toutes ces représentations si différentes les unes des autres représentent pourtant un même point ? Autre remarque : je viens de dire que c’est à notre propre corps que nous rapportons naturellement les objets extérieurs ; que nous transportons pour ainsi dire partout avec nous un système d’axes auxquels nous rapportons tous les points de l’espace, et que ce système d’axes est comme invariablement lié à notre corps. On doit observer que rigoureusement l’on ne pourrait parler d’axes invariablement liés au corps que si les diverses parties de ce corps étaient elles-mêmes invariablement liées l’une à l’autre. Comme il n’en est pas ainsi, nous devons, avant de rapporter les objets extérieurs à ces axes fictifs, supposer notre corps ramené à la même attitude. § 5. — LA NOTION DU DÉPLACEMENT J’ai montré dans Science et Hypothèse le rôle prépondérant joué par les mouvements de notre corps dans la genèse de la notion d’espace. Pour un être complètement immobile, il n’y aurait ni espace, ni géométrie ; c’est en vain qu’autour de lui les objets extérieurs se déplaceraient, les variations que ces déplacements feraient subir à ses impressions ne seraient pas attribuées par cet être à des changements de position, mais à de simples changements d’état, cet être n’aurait aucun moyen de distinguer ces deux sortes de changements, et cette distinction, capitale pour nous, n’aurait aucun sens pour lui. Les mouvements que nous imprimons à nos membres ont pour effet de faire varier les impressions produites sur nos sens par les objets extérieurs ; d’autres causes peuvent également les faire varier ; mais nous sommes amenés à distinguer les changements produits par nos propres mouvements et nous les discernons facilement pour deux raisons : 1° parce qu’ils sont volontaires ; 2° parce qu’ils sont accompagnés de sensations musculaires. Ainsi nous répartissons naturellement les changements que peuvent subir nos impressions en deux catégories que j’ai appelées d’un nom peut- être impropre : 1° les changements internes, qui sont volontaires et accompagnés de sensations musculaires ; 2° les changements externes, dont les caractères sont opposés. Nous observons ensuite que parmi les changements externes, il y en a qui peuvent être corrigés grâce à un changement interne qui ramène tout à l’état primitif ; d’autres ne peuvent pas être corrigés de la sorte (c’est ainsi que quand un objet extérieur s’est déplacé, nous pouvons en nous déplaçant nous-mêmes nous replacer par rapport à cet objet dans la même situation relative de façon à rétablir l’ensemble des impressions primitives ; si cet objet ne s’est pas déplacé, mais a changé d’état, cela est impossible). De là une nouvelle distinction, parmi les changements externes : ceux qui peuvent être ainsi corrigés, nous les appelons changements de position ; et les autres, changements d’état. Supposons, par exemple, une sphère dont un hémisphère soit bleu et l’autre rouge ; elle nous présente d’abord l’hémisphère bleu ; puis elle tourne sur elle-même de façon à nous présenter l’hémisphère rouge. Soit maintenant un vase sphérique contenant un liquide bleu qui devient rouge par suite d’une réaction chimique. Dans les deux cas la sensation du rouge a remplacé celle du bleu ; nos sens ont éprouvé les mêmes impressions qui se sont succédé dans le même ordre, et pourtant ces deux changements sont regardés par nous comme très différents ; le premier est un déplacement, le second un changement d’état. Pourquoi ? Parce que dans le premier cas, il me suffit de tourner autour de la sphère pour me placer vis-à-vis de l’hémisphère rouge et rétablir la sensation rouge primitive. Bien plus, si les deux hémisphères, au lieu d’être rouge et bleu, avaient été jaune et vert, comment se serait traduite pour moi la rotation de la sphère ? Tout à l’heure le rouge succédait au bleu, maintenant le vert succède au jaune ; et cependant je dis que les deux sphères ont éprouvé la même rotation, que l’une comme l’autre ont tourné autour de leur axe ; je ne puis pourtant pas dire que le vert soit au jaune comme le rouge est au bleu ; comment alors suis-je conduit à juger que les deux sphères ont subi le même déplacement ? Évidemment, parce que, dans un cas comme dans l’autre, je puis rétablir la sensation primitive en tournant autour de la sphère, en faisant les mêmes mouvements, et je sais que j’ai fait les mêmes mouvements parce que j’ai éprouvé les mêmes sensations musculaires ; pour le savoir je n’ai donc pas besoin de savoir la géométrie d’avance et de me représenter les mouvements de mon corps dans l’espace géométrique. Autre exemple. Un objet s’est déplacé devant mon œil, son image se formait d’abord au centre de la rétine ; elle se forme ensuite au bord ; la sensation ancienne m’était apportée par une fibre nerveuse aboutissant au centre de la rétine ; la sensation nouvelle m’est apportée par une autre fibre nerveuse partant du bord de la rétine ; ces deux sensations sont qualitativement différentes ; et sans cela comment pourrais-je les distinguer ? Pourquoi alors suis-je conduit à juger que ces deux sensations, qualitativement différentes, représentent une même image qui s’est déplacée ? C’est parce que je puis suivre l’objet de l’œil et, par un déplacement de l’œil volontaire et accompagné de sensations musculaires, ramener l’image au centre de la rétine et rétablir la sensation primitive. Je suppose que l’image d’un objet rouge soit allée du centre A au bord B de la rétine, puis que l’image d’un objet bleu aille à son tour du centre A au bord B de la rétine ; je jugerai que ces deux objets ont subi le même déplacement. Pourquoi ? parce que, dans un cas comme dans l’autre, j’aurai pu rétablir la sensation primitive, et que pour cela j’aurai dû exécuter le même mouvement de l’œil, et je saurai que mon œil a exécuté le même mouvement parce que j’ai éprouvé les mêmes sensations musculaires. Si je ne pouvais mouvoir mon œil, aurais-je quelque raison d’admettre que la sensation du rouge au centre de la rétine est à la sensation du rouge au bord de la rétine, comme celle du bleu au centre est à celle du bleu au bord ? Je n’aurais que quatre sensations qualitativement différentes, et si l’on me demandait si elles sont liées par la proportion que je viens d’énoncer, la question me semblerait ridicule, tout comme si l’on me demandait s’il y a une proportion analogue entre une sensation auditive, une sensation tactile et une sensation olfactive. Envisageons maintenant les changements internes, c’est-à-dire ceux qui sont produits par les mouvements volontaires de notre corps et qui sont accompagnés de changements musculaires ; ils donneront lieu aux deux observations suivantes, analogues à celles que nous venons de faire au sujet des changements externes. 1° Je puis supposer que mon corps se soit transporté d’un point à un autre, mais en conservant la même attitude ; toutes les parties de ce corps ont donc conservé ou repris la même situation relative, bien que leur situation absolue dans l’espace ait varié ; je puis supposer également que non seulement la position de mon corps a changé, mais que son attitude n’est plus la même, que par exemple mes bras qui tout à l’heure étaient repliés soient maintenant allongés. Je dois donc distinguer les simples changements de position sans changement d’attitude, et les changements d’attitude. Les uns et les autres m’apparaissent sous forme de sensations musculaires. Comment alors suis- je amené à les distinguer ? C’est que les premiers peuvent servir à corriger un changement externe, et que les autres ne le peuvent pas ou du moins ne peuvent donner qu’une correction imparfaite. C’est là un fait que je vais expliquer, comme je l’expliquerais à quelqu’un qui saurait déjà la géométrie, mais il ne faut pas en conclure qu’il faut déjà savoir la géométrie pour faire cette distinction ; avant de la savoir, je constate le fait (expérimentalement pour ainsi dire) sans pouvoir l’expliquer. Mais pour faire la distinction entre les deux sortes de changement, je n’ai pas besoin d’expliquer le fait, il me suffit de le constater. Quoi qu’il en soit, l’explication est aisée. Supposons qu’un objet extérieur se soit déplacé ; si nous voulons que les diverses parties de notre corps reprennent par rapport à cet objet leur position relative initiale, il faut que ces diverses parties aient repris également leur position relative initiale les unes par rapport aux autres. Seuls les changements internes qui satisferont à cette dernière condition, seront susceptibles de corriger le changement externe produit par le déplacement de cet objet. Si donc la position relative de mon œil par rapport à mon doigt a changé, je pourrai bien ramener l’œil dans sa situation relative initiale par rapport à l’objet et rétablir ainsi les sensations visuelles primitives, mais alors la position relative du doigt par rapport à l’objet aura changé et les sensations tactiles ne seront pas rétablies. 2° Nous constatons également qu’un même changement externe peut être corrigé par deux changements internes correspondant à des sensations musculaires différentes. Ici encore je puis faire cette constatation sans savoir la géométrie : et je n’ai pas besoin d’autre chose, mais je vais donner l’explication du fait en employant le langage géométrique. Pour passer de la position A à la position B je puis prendre plusieurs chemins. Au premier de ces chemins correspondra une série S de sensations musculaires ; à un second chemin, correspondra une autre série S′′ de sensations musculaires qui généralement seront complètement différentes, puisque ce seront d’autres muscles qui seront entrés en jeu. Comment suis-je amené à regarder ces deux séries S et S′′ comme correspondant à un même déplacement AB ? C’est parce que ces deux séries sont susceptibles de corriger un même changement externe. À part cela, elle n’ont rien de commun. Considérons maintenant deux changements externes : α et β qui seront par exemple la rotation d’une sphère mi-partie bleue et rouge, et celle d’une sphère mi-partie jaune et verte ; ces deux changements n’ont rien de commun puisque l’un se traduit pour nous par le passage du bleu au rouge et l’autre par le passage du jaune au vert. Envisageons d’autre part deux séries de changements internes S et S′′ ; ils n’auront non plus rien de commun. Et cependant je dis que α et β correspondent au même déplacement, et que S et S′′ correspondent aussi au même déplacement. Pourquoi ? Tout simplement parce que S peut corriger β aussi bien que α et parce que α peut être corrigé par S′′ aussi bien que par S. Et alors une question se pose : si j’ai constaté que S corrige α et β et que S′′ corrige α, suis-je certain que S′′ corrige également β ? L’expérience peut seule nous apprendre si cette loi se vérifie. Si elle ne se vérifiait pas, au moins approximativement, il n’y aurait pas de géométrie, il n’y aurait pas d’espace, parce que nous n’aurions plus intérêt à classer les changements externes et internes comme je viens de le faire, et, par exemple à distinguer les changements d’état des changements de position. Il est intéressant de voir quel a été dans tout cela le rôle de l’expérience. Elle m’a montré qu’une certaine loi se vérifie approximativement. Elle ne m’a pas appris comment est l’espace et qu’il satisfait à la condition dont il s’agit. Je savais en effet, avant toute expérience, que l’espace satisfera à cette condition ou qu’il ne sera pas, je ne puis pas dire non plus que l’expérience m’a appris que la géométrie est possible ; je vois bien que la géométrie est possible puisqu’elle n’implique pas contradiction ; l’expérience m’a appris seulement que la géométrie est utile. § 6. — L’ESPACE VISUEL Bien que les impressions motrices aient, comme je viens de l’expliquer, eu une influence tout à fait prépondérante dans la genèse de la notion d’espace qui n’aurait jamais pris naissance sans elles, il ne sera pas sans intérêt d’examiner aussi le rôle des impressions visuelles et de rechercher combien « l’espace visuel » a de dimensions, et d’appliquer pour cela à ces impressions la définition du § 3. Une première difficulté se présente ; considérons une sensation colorée rouge affectant un certain point de la rétine ; et d’autre part une sensation colorée bleue affectant le même point de la rétine. Il faut bien que nous ayons quelque moyen de reconnaître que ces deux sensations, qualitativement différentes, ont quelque chose de commun. Or, d’après les considérations exposées dans le paragraphe précédent, nous n’avons pu le reconnaître que par les mouvements de l’œil et les observations auxquelles ils ont donné lieu. Si l’œil était immobile, ou si nous n’avions pas conscience de ses mouvements, nous n’aurions pu reconnaître que ces deux sensations de qualité différente avaient quelque chose de commun ; nous n’aurions pu en dégager ce qui leur donne un caractère géométrique. Les sensations visuelles, sans les sensations musculaires, n’auraient donc rien de géométrique, de sorte qu’on peut dire qu’il n’y a pas d’espace visuel pur. Pour lever cette difficulté, n’envisageons que des sensations de même nature, des sensations rouges, par exemple, ne différant les unes des autres que par le point de la rétine qu’elles affectent. Il est clair que je n’ai aucune raison pour faire un choix aussi arbitraire parmi toutes les sensations visuelles possibles, pour réunir dans une même classe toutes les sensations de même couleur, quel que soit le point de la rétine affecté. Je n’y aurais jamais songé, si je n’avais pas appris d’avance, par le moyen que nous venons de voir, à distinguer les changements d’état des changements de position, c’est-à-dire si mon œil était immobile. Deux sensations de même couleur affectant deux parties différentes de la rétine m’apparaîtraient comme qualitativement distinctes, au même titre que deux sensations de couleur différente. En me restreignant aux sensations rouges, je m’impose donc une limitation artificielle et je néglige systématiquement tout un côté de la question ; mais ce n’est que par cet artifice que je puis analyser l’espace visuel sans y mêler de sensation motrice. Imaginons une ligne tracée sur la rétine, et divisant en deux sa surface ; et mettons à part les sensations rouges affectant un point de cette ligne, ou celles qui en différent trop peu pour en pouvoir être discernées. L’ensemble de ces sensations formera une sorte de coupure que j’appellerai C, et il est clair que cette coupure suffit pour diviser l’ensemble des sensations rouges possibles, et que si je prends deux sensations rouges affectant deux points situés de part et d’autre de la ligne, je ne pourrai passer de l’une de ces sensations à l’autre d’une manière continue sans passer à un certain moment par une sensation appartenant à la coupure. Si donc la coupure a n dimensions, l’ensemble total de mes sensations rouges, ou si l’on veut, l’espace visuel total en aura n + 1. Maintenant, je distingue les sensations rouges affectant un point de la coupure C. L’ensemble de ces sensations formera une nouvelle coupure C′. Il est clair que celle-ci divisera la coupure C, en donnant toujours au mot diviser le même sens. Si donc la coupure C′ a n dimensions, la coupure C en aura n + 1 et l’espace visuel total n + 2. Si toutes les sensations rouges affectant un même point de la rétine étaient regardées comme identiques, la coupure C se réduisant à un élément unique aurait 0 dimension, et l’espace visuel en aurait 2. Et pourtant le plus souvent on dit que l’œil nous donne le sentiment d’une troisième dimension, et nous permet dans une certaine mesure de reconnaître la distance des objets. Quand on cherche à analyser ce sentiment, on constate qu’il se réduit soit à la conscience de la convergence des yeux, soit à celle de l’effort d’accommodation que fait le muscle ciliaire pour mettre l’image au point. Deux sensations rouges affectant le même point de la rétine ne seront donc regardées comme identiques que si elles sont accompagnées d’une même sensation de convergence et aussi d’une même sensation d’effort d’accommodation ou du moins de sensation de convergence et d’accommodation assez peu différentes pour ne pouvoir être discernées. À ce compte, la coupure C′ est elle-même un continu et la coupure C a plus d’une dimension. Mais il arrive justement que l’expérience nous apprend que, quand deux sensations visuelles sont accompagnées d’une même sensation de convergence, elles sont également accompagnées d’une même sensation d’accommodation. Si alors nous formons une nouvelle coupure C′′ avec toutes celles des sensations de la coupure C′ qui sont accompagnées d’une certaine sensation de convergence, d’après la loi précédente, elles seront toutes indiscernables et pourront être regardées comme identiques ; donc C′′ ne sera pas un continu et aura 0 dimension ; et comme C′′ divise C′ il en résultera que C′ en a une, C deux et que l’espace visuel total en a trois. Mais en serait-il de même si l’expérience nous avait appris le contraire et si une certaine sensation de convergence n’était pas toujours accompagnée d’une même sensation d’accommodation ? Dans ce cas deux sensations affectant le même point de la rétine et accompagnées d’un même sentiment de convergence, deux sensations qui par conséquent appartiendraient l’une et l’autre à la coupure C′′ pourraient néanmoins être discernées parce qu’elles seraient accompagnées de deux sensations d’accommodation différentes. Donc C′′ serait à son tour continu, et aurait une dimension (pour le moins) ; alors C′ en aurait deux, C trois et l’espace visuel total en aurait quatre. Va-t-on dire alors que c’est l’expérience qui nous apprend que l’espace a trois dimensions, puisque c’est en partant d’une loi expérimentale que nous sommes arrivés à lui en attribuer trois ? Mais nous n’avons fait là pour ainsi dire qu’une expérience de physiologie ; et même comme il suffirait d’adapter sur les yeux des verres de construction convenable pour faire cesser l’accord entre les sentiments de convergence et d’accommodation, allons-nous dire qu’il suffit de mettre des bésicles pour que l’espace ait quatre dimensions et que l’opticien qui les a construites a donné une dimension de plus à l’espace ? Évidemment non, tout ce que nous pouvons dire c’est que l’expérience nous a appris qu’il est commode d’attribuer à l’espace trois dimensions. Mais l’espace visuel n’est qu’une partie de l’espace, et dans la notion même de cet espace il y a quelque chose d’artificiel, comme je l’ai expliqué au début. Le véritable espace est l’espace moteur et c’est celui que nous examinerons dans le chapitre suivant.     CHAPITRE IV L’Espace et ses Trois Dimensions § 1. — LE GROUPE DES DÉPLACEMENTS Résumons brièvement les résultats obtenus. Nous nous proposions de rechercher ce qu’on veut dire quand on dit que l’espace a trois dimensions et nous nous sommes demandé d’abord ce que c’est qu’un continu physique et quand on peut dire qu’il a n dimensions. Si nous considérons divers systèmes d’impressions et que nous les comparions entre eux, nous reconnaissons souvent que deux de ces systèmes d’impressions ne peuvent être discernés (ce que l’on exprime d’ordinaire en disant qu’ils sont trop voisins l’un de l’autre, et que nos sens sont trop grossiers pour que nous puissions les distinguer) et nous constatons de plus que deux de ces systèmes peuvent quelquefois être discernés l’un de l’autre, bien qu’étant indiscernables d’un même troisième. S’il en est ainsi, on dit que l’ensemble de ces systèmes d’impressions forme un continu physique C. Et chacun de ces systèmes s’appellera un élément du continu C. Combien ce continu a-t-il de dimensions ? Prenons d’abord deux éléments A et B de C, et supposons qu’il existe une suite Σ d’éléments, appartenant tous au continu C, de telle façon que A et B soient les deux termes extrêmes de cette suite et que chaque terme de la suite soit indiscernable du précédent. Si l’on peut trouver une pareille suite Σ, nous dirons que A et B sont reliés entre eux ; et si deux éléments quelconques de C sont reliés entre eux, nous dirons que C est d’un seul tenant. Choisissons maintenant sur le continu C un certain nombre d’éléments d’une manière tout à fait arbitraire. L’ensemble de ces éléments s’appellera une coupure. Parmi les suites Σ qui relient A à B, nous distinguerons celles dont un élément est indiscernable d’un des éléments de la coupure (nous dirons que ce sont celles qui coupent la coupure) et celles dont tous les éléments sont discernables de tous ceux de la coupure. Si toutes les suites Σ qui relient A à B coupent la coupure, nous dirons que A et B sont séparés par la coupure, et que la coupure divise C. Si on ne peut pas trouver sur C deux éléments qui soient séparés par la coupure, nous dirons que la coupure ne divise pas C. Ces définitions posées, si le continu C peut être divisé par des coupures qui ne forment pas elles-mêmes un continu, ce continu C n’a qu’une dimension ; dans le cas contraire il en a plusieurs. Si pour diviser C, il suffit d’une coupure formant un continu à 1 dimension, C aura 2 dimensions, s’il suffit d’une coupure formant un continu à 2 dimensions, C aura 3 dimensions, etc. Grâce à ces définitions, on saura toujours reconnaître combien un continu physique quelconque a de dimensions. Il ne reste plus qu’à trouver un continu physique, qui soit pour ainsi dire équivalent à l’espace, de telle façon qu’à tout point de l’espace corresponde un élément de ce continu, et qu’à des points de l’espace très voisins les uns des autres, correspondent des éléments indiscernables. L’espace aura alors autant de dimensions que ce continu. L’intermédiaire de ce continu physique, susceptible de représentation, est indispensable ; parce que nous ne pouvons nous représenter l’espace et cela pour une foule de raisons. L’espace est un continu mathématique, il est infini, et nous ne pouvons nous représenter que des continus physiques et des objets finis. Les divers éléments de l’espace, que nous appelons points, sont tous semblables entre eux, et, pour appliquer notre définition, il faut que nous sachions discerner les éléments les uns des autres, au moins s’ils ne sont pas trop voisins. Enfin l’espace absolu est un non-sens, et il nous faut commencer par le rapporter à un système d’axes invariablement liés à notre corps (que nous devons toujours supposer ramené à une même attitude). J’ai cherché ensuite à former avec nos sensations visuelles un continu physique équivalent à l’espace ; cela est facile sans doute et cet exemple est particulièrement approprié à la discussion du nombre des dimensions ; cette discussion nous a permis de voir dans quelle mesure il est permis de dire que « l’espace visuel » a trois dimensions. Seulement cette solution est incomplète et artificielle, j’ai expliqué pourquoi, et ce n’est pas sur l’espace visuel, mais sur l’espace moteur qu’il faut faire porter notre effort. J’ai rappelé ensuite quelle est l’origine de la distinction que nous faisons entre les changements de position et les changements d’état. Parmi les changements qui se produisent dans nos impressions, nous distinguons d’abord les changements internes volontaires et accompagnés de sensations musculaires et les changements externes, dont les caractères sont opposés. Nous constatons qu’il peut arriver qu’un changement externe soit corrigé par un changement interne qui rétablit les sensations primitives. Les changements externes susceptibles d’être corrigés par un changement interne s’appellent changements de position, ceux qui n’en sont pas susceptibles s’appellent changements d’état. Les changements internes susceptibles de corriger un changement externe s’appellent déplacements du corps en bloc ; les autres s’appellent changement d’attitude. Soient maintenant α et β deux changements externes, α′ et β′ deux changements internes. Supposons que α puisse être corrigé soit par α′, soit par β′ ; et que α′ puisse corriger soit α, soit β ; l’expérience nous apprend alors que β′ peut également corriger β. Dans ce cas nous dirons que α et β correspondent au même déplacement et de même que α′ et β′ correspondent au même déplacement. Cela posé, nous pouvons imaginer un continu physique que nous appellerons le continu ou le groupe des déplacements et que nous définirons de la façon suivante. Les éléments de ce continu seront les changements internes susceptibles de corriger un changement externe. Deux de ces changements internes α′ et β′ seront regardés comme indiscernables : 1° s’ils le sont naturellement, c’est-à-dire s’ils sont trop voisins l’un de l’autre ; 2° si α′ est susceptible de corriger le même changement externe qu’un troisième changement interne naturellement indiscernable de β′. Dans ce second cas, ils seront pour ainsi dire indiscernables par convention, je veux dire en convenant de faire abstraction des circonstances qui pourraient les faire distinguer. Notre continu est maintenant entièrement défini, puisque nous connaissons ses éléments et que nous avons précisé dans quelles conditions ils peuvent être regardés comme indiscernables. Nous avons ainsi tout ce qu’il faut pour appliquer notre définition et déterminer combien ce continu a de dimensions. Nous reconnaîtrons qu’il en a six. Le continu des déplacements n’est donc pas équivalent à l’espace, puisque le nombre des dimensions n’est pas le même, il est seulement apparenté à l’espace. Comment savons-nous maintenant que ce continu des déplacements a six dimensions ; nous le savons par expérience. Il serait aisé de décrire les expériences par lesquelles nous pourrions arriver à ce résultat. On verrait qu’on peut dans ce continu pratiquer des coupures qui le divisent et qui sont des continus ; qu’on peut diviser ces coupures elles-mêmes par d’autres coupures du second ordre qui sont encore des continus, et qu’on ne serait arrêté qu’après les coupures du sixième ordre qui ne seraient plus des continus. D’après nos définitions cela voudrait dire que le groupe des déplacements a six dimensions. Cela serait aisé, ai-je dit, mais cela serait assez long ; et ne serait-ce pas un peu superficiel ? Ce groupe des déplacements, nous l’avons vu, est apparenté à l’espace et on pourrait en déduire l’espace, mais il n’est pas équivalent à l’espace puisqu’il n’a pas le même nombre de dimensions ; et quand nous aurons montré comment la notion de ce continu peut se former et comment on peut en déduire celle de l’espace, on pourrait toujours se demander pourquoi l’espace à trois dimensions nous est beaucoup plus familier que ce continu à six dimensions, et douter par conséquent que ce soit par ce détour, que s’est formée dans l’esprit humain la notion d’espace. § 2. — IDENTITÉ DE DEUX POINTS Qu’est-ce qu’un point ? Comment saurons-nous si deux points de l’espace sont identiques ou différents ? Ou, en d’autres termes ; quand je dis : l’objet A occupait à l’instant α le point qu’occupe l’objet B à l’instant β, qu’est-ce que cela veut dire ? Tel est le problème que nous nous sommes posé au chapitre précédent, § 4. Comme je l’ai expliqué, il ne s’agit pas de comparer les positions des objets A et B dans l’espace absolu ; la question n’aurait alors manifestement aucun sens ; il s’agit de comparer les positions de ces deux objets par rapport à des axes invariablement liés à mon corps, en supposant toujours ce corps ramené à la même attitude. Je suppose qu’entre les instants α et β, je n’aie bougé ni mon corps, ni mon œil, ce dont je suis averti par mon sens musculaire. Je n’ai remué non plus ni ma tête, ni mon bras, ni ma main. Je constate qu’à l’instant α des impressions que j’attribuais à l’objet A m’étaient transmises les unes par une des fibres de mon nerf optique, les autres par un des nerfs sensitifs tactiles de mon doigt ; je constate qu’à l’instant β, d’autres impressions que j’attribue à l’objet B me sont transmises, les unes par cette même fibre du nerf optique, les autres par ce même nerf tactile. Il est nécessaire ici de m’arrêter pour une explication ; comment suis-je averti que cette impression que j’attribue à A, et celle que j’attribue à B et qui sont qualitativement différentes me sont transmises par le même nerf ? Doit-on supposer, pour prendre par exemple les sensations visuelles, que A produit deux sensations simultanées, une sensation purement lumineuse a et une sensation colorée a′, que B produit de même simultanément une sensation lumineuse b et une sensation colorée b′, que si ces diverses sensations me sont transmises par une même fibre rétinienne, a est identique à b, mais qu’en général les sensations colorées a′ et b′ produites par des corps différents sont différentes. Dans ce cas ce serait l’identité de la sensation a qui accompagne a′ avec la sensation b qui accompagne b′, ce serait cette identité, dis-je, qui nous avertirait que toutes ces sensations me sont transmises par la même fibre. Quoi qu’il en soit de cette hypothèse, et bien que je sois porté à en préférer d’autres notablement plus compliquées, il est certain que nous sommes avertis de quelque façon qu’il y a quelque chose de commun entre ces sensations a + a′ et b + b′, sans quoi nous n’aurions aucun moyen de reconnaître que l’objet B a pris la place de l’objet A. Je n’insiste donc pas davantage et je rappelle l’hypothèse que je viens de faire : je suppose que j’aie constaté que les impressions que j’attribue à B me sont transmises à l’instant β par ces mêmes fibres tant optiques que tactiles qui, à l’instant α, m’avaient transmis les impressions que j’attribuais à A. S’il en est ainsi, nous n’hésiterons pas à déclarer que le point occupé par B à l’instant β est identique au point occupé par A à l’instant α. Je viens d’énoncer deux conditions pour que ces deux points soient identiques ; l’une est relative à la vue, l’autre au toucher. Considérons-les séparément. La première est nécessaire, mais n’est pas suffisante. La seconde est à la fois nécessaire et suffisante. Quelqu’un qui saurait la géométrie, l’expliquerait aisément de la manière suivante : Soit O le point de la rétine où se forme à l’instant α l’image du corps A ; soit M le point de l’espace occupé à l’instant α par ce corps A ; soit M′ le point de l’espace occupé à l’instant β par le corps B. Pour que ce corps B forme son image en O, il n’est pas nécessaire que les points M et M′ coïncident : comme la vue s’exerce à distance, il suffit que les trois points O M M′ soient en ligne droite. Cette condition que les deux objets forment leur image en O est donc nécessaire, mais non suffisante pour que les points M et M′ coïncident. Soit maintenant P le point occupé par mon doigt et où il reste puisqu’il ne bouge pas. Comme le toucher ne s’exerce pas à distance, si le corps A touche mon doigt à l’instant α, c’est que M et P coïncident ; si B touche mon doigt à l’instant β, c’est que M′ et P coïncident. Donc M et M′ coïncident. Donc cette condition que si A touche mon doigt à l’instant α, B le touche à l’instant β, est à la fois nécessaire et suffisante pour que M et M′ coïncident. Mais nous qui ne savons pas encore la géométrie, nous ne pouvons raisonner comme cela ; tout ce que nous pouvons faire, c’est de constater expérimentalement que la première condition relative à la vue peut être remplie sans que le soit la seconde, qui est relative au toucher, mais que la seconde ne peut pas être remplie sans que la première le soit. Supposons que l’expérience nous ait appris le contraire. Cela se pourrait, et cette hypothèse n’a rien d’absurde. Supposons donc que nous ayons constaté expérimentalement que la condition relative au toucher peut être remplie sans que celle de la vue le soit et que celle de la vue au contraire ne peut pas l’être sans que celle du toucher le soit. Il est clair que, s’il en était ainsi, nous conclurions que c’est le toucher qui peut s’exercer à distance, et que la vue ne s’exerce pas à distance. Mais ce n’est pas tout ; jusqu’ici j’ai supposé que pour déterminer la place d’un objet, je faisais usage seulement de mon œil et d’un seul doigt ; mais j’aurais tout aussi bien pu employer d’autres moyens, par exemple tous mes autres doigts. Je suppose que mon premier doigt reçoive à l’instant α une impression tactile que j’attribue à l’objet A. Je fais une série de mouvements, correspondant à une série S de sensations musculaires. À la suite de ces mouvements, à l’instant α, mon second doigt reçoit une impression tactile que j’attribue également à A. Ensuite, à l’instant β, sans que j’aie bougé, ce dont m’avertit mon sens musculaire, ce même second doigt me transmet de nouveau une impression tactile que j’attribue cette fois à l’objet B ; je fais ensuite une série de mouvements correspondant à une série S′ de sensations musculaires. Je sais que cette série S′ est inverse de la série S et correspond à des mouvements contraires. Comment le sais-je, c’est parce que des expériences antérieures multiples m’ont souvent montré que si je faisais successivement les deux séries de mouvements correspondant à S et à S′, les impressions primitives se rétablissaient, c’est-à-dire que les deux séries se compensaient mutuellement. Cela posé, dois-je m’attendre à ce qu’à l’instant β′, quand la seconde série de mouvements sera terminée, mon premier doigt éprouve une impression tactile attribuable à l’objet B ? Pour répondre à cette question, ceux qui sauraient déjà la géométrie raisonneraient comme il suit. Il y a des chances pour que l’objet A n’ait pas bougé entre les instants α et α′, ni l’objet B entre les instants β et β′ ; admettons-le. À l’instant α, l’objet A occupait un certain point M de l’espace. Or à cet instant, il touchait mon premier doigt, et comme le toucher ne s’exerce pas à distance, mon premier doigt était également au point M. J’ai fait ensuite la série S de mouvements et à la fin de cette série, à l’instant α′, j’ai constaté que l’objet A touchait mon second doigt. J’en conclus que ce second doigt se trouvait alors en M, c’est-à-dire que les mouvements S avaient pour effet d’amener le second doigt à la place du premier. À l’instant β, l’objet B est venu au contact de mon second doigt : comme je n’ai pas bougé, ce second doigt est resté en M ; donc l’objet B est venu en M ; par hypothèse il ne bouge pas jusqu’à l’instant β′. Mais entre les instants β et β′ j’ai fait les mouvements S′ ; comme ces mouvements sont inverses des mouvements S, ils doivent avoir pour effet d’amener le premier doigt à la place du second. À l’instant β′, ce premier doigt sera donc en M ; et comme l’objet B est également en M cet objet B touchera mon premier doigt. À la question posée, on doit donc répondre oui. Pour nous, qui ne savons pas encore la géométrie, nous ne pouvons pas raisonner de la sorte, mais nous constatons que cette prévision se réalise d’ordinaire ; et nous pouvons toujours expliquer les exceptions en disant que l’objet A a bougé entre les instants α et α′, ou l’objet B entre les instants β et β′. Mais l’expérience n’aurait-elle pu donner un résultat contraire ; ce résultat contraire aurait-il été absurde en soi ? Évidemment non. Qu’aurions-nous fait alors si l’expérience avait donné ce résultat contraire ? Toute géométrie serait-elle ainsi devenue impossible ? pas le moins du monde : nous nous serions bornés à conclure que le toucher peut s’exercer à distance. Quand je dis, le toucher ne s’exerce pas à distance, mais la vue s’exerce à distance, cette assertion n’a qu’un sens qui est le suivant. Pour reconnaître si B occupe à l’instant β, le point occupé par A à l’instant α, je puis me servir d’une foule de critères différents ; dans l’un intervient mon œil, dans l’autre mon premier doigt, dans l’autre mon second doigt, etc. Eh bien, il suffit que le critère relatif à l’un de mes doigts soit satisfait pour que tous les autres le soient, mais il ne suffit pas que le critère relatif à l’œil le soit. Voilà le sens de mon assertion, je me borne à affirmer un fait expérimental qui se vérifie d’ordinaire. Nous avons analysé à la fin du chapitre précédent l’espace visuel ; nous avons vu que pour engendrer cet espace, il faut faire intervenir les sensations rétiniennes, la sensation de convergence, et la sensation d’accommodation ; que si ces deux dernières n’étaient pas toujours d’accord, l’espace visuel aurait quatre dimensions au lieu de trois ; et d’autre part que si l’on ne faisait intervenir que les sensations rétiniennes, on obtiendrait « l’espace visuel simple » qui n’aurait que deux dimensions. D’un autre côté, envisageons l’espace tactile, en nous bornant aux sensations d’un seul doigt, c’est-à-dire en somme l’ensemble des positions que peut occuper ce doigt. Cet espace tactile que nous analyserons dans le paragraphe suivant et sur lequel je demanderai en conséquence la permission de ne pas m’expliquer davantage pour le moment, cet espace tactile, dis-je, a trois dimensions. Pourquoi l’espace proprement dit a-t-il autant de dimensions que l’espace tactile et en a-t-il plus que l’espace visuel simple ? C’est parce que le toucher ne s’exerce pas à distance, tandis que la vue s’exerce à distance. Ces deux assertions n’ont qu’un seul et même sens et nous venons de voir quel était ce sens. Je reviens maintenant sur un point sur lequel j’avais glissé rapidement pour ne pas interrompre la discussion. Comment savons-nous que les impressions faites sur notre rétine par A à l’instant α et par B à l’instant β nous sont transmises par une même fibre rétinienne, bien que ces impressions soient qualitativement différentes ? J’ai émis une hypothèse simple, mais en ajoutant que d’autres hypothèses, notablement plus compliquées, me paraissaient plus probablement exactes. Voici quelles sont ces hypothèses, dont j’ai déjà dit un mot. Comment savons-nous que les impressions produites par l’objet rouge A à l’instant α, et par l’objet bleu B à l’instant β, si ces deux objets ont formé leur image au même point de la rétine, comment savons-nous, dis-je, que ces impressions ont quelque chose de commun ? On peut rejeter l’hypothèse simple que j’avais faite plus haut et admettre que ces deux impressions, qualitativement différentes, me sont transmises par deux fibres nerveuses différentes quoique contiguës. Quel moyen ai-je alors de savoir que ces fibres sont contiguës ? Il est probable que nous n’en aurions aucun si l’œil était immobile. Ce sont les mouvements de l’œil qui nous ont appris qu’il y a la même relation entre la sensation de bleu au point A et la sensation de bleu au point B de la rétine qu’entre la sensation de rouge au point A et la sensation de rouge au point B. Ils nous ont montré en effet que les mêmes mouvements, correspondant aux mêmes sensations musculaires, nous font passer de la première à la deuxième, ou de la troisième à la quatrième. Je n’insiste pas sur ces considérations qui se rattachent comme on le voit à la question des signes locaux soulevée par Lotze. § 3. — L’ESPACE TACTILE Je sais ainsi reconnaître l’identité de deux points, le point occupé par A à l’instant α et le point occupé par B à l’instant β, mais à une condition, c’est que je n’aie pas bougé entre les instants α et β. Cela ne suffit pas pour notre objet. Supposons donc que j’aie remué d’une manière quelconque dans l’intervalle de ces deux instants, comment saurai-je si le point occupé par A à l’instant α est identique au point occupé par B à l’instant β ? Je suppose qu’à l’instant α, l’objet A était au contact de mon premier doigt et que de même, à l’instant β, l’objet B touche ce premier doigt ; mais en même temps, mon sens musculaire m’a averti que dans l’intervalle mon corps a bougé. J’ai envisagé plus haut deux séries de sensations musculaires S et S′ et j’ai dit qu’il arrive quelquefois qu’on est conduit à envisager deux pareilles séries S et S′ comme inverses l’une de l’autre parce que nous avons souvent observé que quand ces deux séries se succèdent nos impressions primitives sont rétablies. Si alors mon sens musculaire m’avertit que j’ai bougé entre les deux instants α et β, mais de façon à ressentir successivement les deux séries de sensations musculaires S et S′ que je considère comme inverses ; je conclurai encore, tout comme si je n’avais pas bougé, que les points occupés par A à l’instant α et par B à l’instant β sont identiques, si je constate que mon premier doigt touche A à l’instant α et B à l’instant β. Cette solution n’est pas encore complètement satisfaisante comme on va le voir. Voyons en effet combien de dimensions elle nous ferait attribuer à l’espace. Je veux comparer les deux points occupés par A et B aux instants α et β, ou (ce qui revient au même puisque je suppose que mon doigt touche A à l’instant α et B à l’instant β) je veux comparer les deux points occupés par mon doigt aux deux instants α et β. Le seul moyen dont je dispose pour cette comparaison est la série Σ des sensations musculaires qui ont accompagné les mouvements de mon corps entre ces deux instants. Les diverses séries Σ imaginables forment évidemment un continu physique dont le nombre de dimensions est très grand. Convenons, comme je l’ai fait, de ne pas considérer comme distinctes les deux séries Σ et Σ + S + S′ lorsque les deux séries S et S′ seront inverses l’une de l’autre au sens donné plus haut à ce mot ; malgré cette convention, l’ensemble des séries Σ distinctes formera encore un continu physique et le nombre des dimensions sera moindre mais encore très grand. À chacune de ces séries Σ correspond un point de l’espace ; à deux séries Σ et Σ′ correspondront ainsi deux points M et M′. Les moyens dont nous disposons jusqu’ici nous permettent de reconnaître que M et M′ ne sont pas distincts dans deux cas : 1° si Σ est identique à Σ′ ; 2° si Σ′ = Σ + S + S′, S et S′ étant inverses l’une de l’autre. Si, dans tous les autres cas, nous regardions M et M′ comme distincts, l’ensemble des points aurait autant de dimensions que l’ensemble des séries Σ distinctes, c’est-à-dire beaucoup plus de 3. Pour ceux qui savent déjà la géométrie, il serait aisé de le leur faire comprendre en raisonnant comme il suit. Parmi les séries de sensations musculaires imaginables, il y en a qui correspondent à des séries de mouvements où le doigt ne bouge pas. Je dis que si l’on ne considère pas comme distinctes les séries Σ et Σ + σ où la série σ correspond à des mouvements où le doigt ne bouge pas, l’ensemble des séries constituera un continu à trois dimensions, mais que si on regarde deux séries Σ et Σ′ comme distinctes à moins que Σ′ = Σ + S + S′, S et S′ étant inverses, l’ensemble des séries constituera un continu à plus de trois dimensions. Soit en effet dans l’espace une surface A, sur cette surface une ligne B, sur cette ligne un point M ; soit C 0 l’ensemble de toutes les séries Σ, soit C 1 l’ensemble de toutes les séries Σ telles qu’à la fin des mouvements correspondants le doigt se trouve sur la surface A et de même soient C 2 ou C 3 l’ensemble des séries Σ telles qu’à la fin le doigt se trouve sur B, ou en M. Il est clair d’abord que C 1 constituera une coupure qui divisera C 0 , que C 2 sera une coupure qui divisera C 1 et C 3 une coupure qui divisera C 2 . Il résulte de là, d’après nos définitions, que si C 3 est un continu à n dimensions, C 0 sera un continu physique à n + 3 dimensions. Soient donc Σ et Σ′ = Σ + σ deux séries faisant partie de C 3  ; pour toutes deux à la fin des mouvements, le doigt se trouve en M ; il en résulte qu’au commencement et à la fin de la série σ, le doigt est au même point M. Cette série σ est donc une de celles qui correspondent à des mouvements où le doigt ne bouge pas. Si l’on ne regarde pas Σ et Σ + σ comme distinctes, toutes les séries de C 3 se confondront en une seule ; donc C 3 aura 0 dimension et C 0 , comme je voulais le démontrer en aura 3. Si au contraire je ne regarde pas Σ et Σ + σ comme confondues (à moins que σ = S + S′, S et S′ étant inverses) il est clair que C 3 contiendra un grand nombre de séries de sensations distinctes ; car sans que le doigt bouge, le corps peut prendre une foule d’attitudes différentes. Alors C 3 formera un continu et C 0 aura plus de trois dimensions et c’est encore ce que je voulais démontrer. Nous qui ne savons pas encore la géométrie, nous ne pouvons pas raisonner de la sorte ; nous ne pouvons que constater. Mais alors une question se pose ; comment, avant de savoir la géométrie, avons-nous été amenés à distinguer des autres ces séries σ où le doigt ne bouge pas ; ce n’est en effet qu’après avoir fait cette distinction que nous pourrons être conduits à regarder Σ et Σ + σ comme identiques, et c’est à cette condition seulement, comme nous venons de le voir, que nous pouvons arriver à l’espace à trois dimensions. Nous sommes amenés à distinguer les séries σ, parce qu’il arrive souvent que quand nous avons exécuté les mouvements qui correspondent à ces séries σ de sensations musculaires, les sensations tactiles qui nous sont transmises par le nerf du doigt que nous avons appelé le premier doigt, que ces sensations tactiles, dis-je, persistent et ne sont pas altérées par ces mouvements. Cela, c’est l’expérience qui nous l’apprend et elle seule qui pouvait nous l’apprendre. Si nous avions distingué les séries de sensations musculaires S + S′ formées par la réunion de deux séries inverses ; c’est parce qu’elles conservaient l’ensemble de nos impressions, si maintenant nous distinguons les séries σ, c’est parce qu’elles conservent certaines de nos impressions. (Quand je dis qu’une série de sensations musculaires S « conserve » une de nos impressions A, je veux dire que nous constatons que si nous éprouvons l’impression A, puis les sensations musculaires S, nous éprouverons encore l’impression A après ces sensations S.) J’ai dit plus haut qu’il arrive souvent que les séries σ n’altèrent pas les impressions tactiles éprouvées par notre premier doigt ; j’ai dit souvent, je n’ai pas dit toujours ; c’est ce que nous exprimons dans notre langage habituel en disant que l’impression tactile ne serait pas altérée si le doigt n’a pas bougé, à la condition que l’objet A qui était au contact de ce doigt n’ait pas bougé non plus. Avant de savoir la géométrie, nous ne pouvons pas donner cette explication ; tout ce que nous pouvons faire, c’est de constater que l’impression persiste souvent, mais pas toujours. Mais il suffit qu’elle persiste souvent pour que les séries σ nous apparaissent comme remarquables, pour que nous soyons amenés à ranger dans une même classe les séries Σ et Σ + σ, et de là à ne pas les regarder comme distinctes. Dans ces conditions nous avons vu qu’elles engendreront un continu physique à trois dimensions. Voilà donc un espace à trois dimensions engendré par mon premier doigt. Chacun de mes doigts en engendrera un semblable. Comment sommes-nous conduits à les considérer comme identiques à l’espace visuel, comme identiques à l’espace géométrique, c’est ce qui reste à examiner. Mais avant d’aller plus loin, faisons une réflexion ; d’après ce qui précède, nous ne connaissons les points de l’espace ou plus généralement la situation finale de notre corps, que par les séries de sensations musculaires nous révélant les mouvements qui nous ont fait passer d’une certaine situation initiale à cette situation finale. Mais il est clair que cette situation finale dépendra d’une part de ces mouvements et d’autre part de la situation initiale d’où nous sommes partis. Or ces mouvements nous sont révélés par nos sensations musculaires ; mais rien ne nous fait connaître la situation initiale ; rien ne peut nous la faire distinguer de toutes les autres situations possibles. Voilà qui met bien en évidence la relativité essentielle de l’espace. § 4. — IDENTITÉ DES DIVERS ESPACES Nous sommes donc amenés à comparer les deux continus C et C′ engendrés par exemple, l’un par mon premier doigt D, l’autre par mon second doigt D′. Ces deux continus physiques ont l’un et l’autre trois dimensions. À chaque élément du continu C, ou si l’on aime mieux s’exprimer ainsi, à chaque point du premier espace tactile, correspond une série de sensations musculaires Σ qui me font passer d’une certaine situation initiale à une certaine situation finale  1 . De plus un même point de ce premier espace correspondra à Σ et à Σ + σ, si σ est une série dont nous savons qu’elle ne fait pas bouger le doigt D. De même à chaque élément du continu C′, ou à chaque point du second espace tactile correspond une série de sensations Σ′, et un même point correspondra à Σ′ et Σ′ + σ′ si σ′ est une série qui ne fait pas bouger le doigt D′. Ce qui nous fait donc distinguer les séries σ et σ′ c’est que les premières n’altèrent pas les impressions tactiles éprouvées par le doigt D et que les secondes conservent celles qu’éprouve le doigt D′. Or voici ce que nous constatons : au début mon doigt D′ éprouve une sensation A′ ; je fais des mouvements qui engendrent les sensations musculaires S ; mon doigt D éprouve l’impression A ; je fais des mouvements qui engendrent une série de sensations σ ; mon doigt D continue à éprouver l’impression A, puisque c’est la propriété caractéristique des séries σ ; je fais ensuite des mouvements qui engendrent la série S′ de sensations musculaires, inverse de S au sens donné plus haut à ce mot. Je constate alors que mon doigt D éprouve de nouveau l’impression A′. (Il faut bien entendu pour cela que S ait été convenablement choisie.) Ce qui veut dire que la série S + σ + S′, conservant les impressions tactiles du doigt D′ est l’une des séries que j’ai appelées σ′. Inversement si l’on prend une série σ′ quelconque, S′ + σ′ + S sera une des séries que nous appelons σ. Ainsi si S est convenablement choisie. S + σ + S′ sera une série σ′, et en faisant varier σ de toutes les manières possibles, on obtiendra toutes les séries σ′ possibles. Tout cela, ne sachant pas encore la géométrie, nous nous bornons à le constater, mais voici comment ceux qui savent la géométrie expliqueraient le fait. Au début mon doigt D′ est au point M, au contact de l’objet a qui lui fait éprouver l’impression A′ ; je fais les mouvements correspondants à la série S ; j’ai dit que cette série devait être convenablement choisie, je dois faire ce choix de telle façon que ces mouvements amènent le doigt D au point primitivement occupé par le doigt D′, c’est-à-dire au point M ; ce doigt D sera ainsi au contact de l’objet a, qui lui fera éprouver l’impression A. Je fais ensuite les mouvements correspondants à la série σ ; dans ces mouvements, par hypothèse, la position du doigt D ne change pas, ce doigt reste donc au contact de l’objet a et continue à éprouver l’impression A. Je fais enfin les mouvements correspondants à la série S′. Comme S′ est inverse de S, ces mouvements amèneront le doigt D′ au point occupé d’abord par le doigt D, c’est-à-dire au point M. Si, comme il est permis de le supposer, l’objet a n’a pas bougé, ce doigt D′ se trouvera au contact de cet objet et éprouvera de nouveau l’impression A′ ; ... C. Q. F. D. Voyons les conséquences. Je considère une série de sensations musculaires S ; à cette série correspondra un point M du premier espace tactile. Reprenons maintenant les deux séries S et S′, inverses l’une de l’autre, dont nous venons de parler. À la série S + Σ + S′ correspondra un point N du second espace tactile, puisque à une série quelconque de sensations musculaires correspond, comme nous l’avons dit, un point soit dans le premier espace, soit dans le second. Je vais considérer les deux points N et M ainsi définis comme se correspondant. Qu’est-ce qui m’y autorise ? Pour que cette correspondance soit admissible, il faut que s’il y a identité entre deux points M et M′ correspondant dans le premier espace à deux séries Σ et Σ′, il y ait aussi identité entre les deux points correspondants du second espace N et N′, c’est-à-dire entre les deux points qui correspondent aux deux séries S + Σ + S′, et S′ + Σ'+ S′. Or nous allons voir que cette condition est remplie. Faisons d’abord une remarque. Comme S et S′ sont inverses l’une de l’autre, on aura S + S′ = O, et par conséquent S + S′ + Σ = Σ + S + S′ = Σ, ou encore Σ + S + S′ + Σ′ = Σ + Σ′ ; mais il ne s’ensuit pas que l’on ait S + Σ + Σ′ = Σ ; car bien que nous ayons employé le signe de l’addition pour représenter la succession de nos sensations, il est clair que l’ordre de cette succession n’est pas indifférent : nous ne pouvons donc, comme dans l’addition ordinaire, intervertir l’ordre des termes ; pour employer un langage abrégé, nos opérations sont associatives, mais non commutatives. Cela posé, pour que Σ et Σ′ correspondent à un même point M = M′ du premier espace, il faut et il suffit que l’on ait Σ′ = Σ + σ. On aura alors : S + Σ′ + S′ = S + Σ + σ + S' = S + Σ + S′ + S + σ + S′. Mais nous venons de constater que S + σ + S′ était une des séries σ′. On aura donc :       S + Σ′ + S′ = S + Σ + S′ + σ' ce qui veut dire que les séries S + Σ′ + S′ et S + Σ + σ′ correspondent à un même point N = N′ du second espace.                               C. Q. F. D. Nos deux espaces se correspondent donc point à point ; ils peuvent être « transformés » l’un dans l’autre ; ils sont isomorphes ; comment sommes- nous conduits à en conclure qu’ils sont identiques ? Considérons les deux séries σ et S + σ + S′ = σ′. J’ai dit que souvent, mais non toujours, la série σ conserve l’impression tactile A éprouvée par le doigt D ; et de même il arrive souvent, mais non toujours, que la série σ′ conserve l’impression tactile A′ éprouvée par le doigt D′. Or je constate qu’il arrive très souvent (c’est-à-dire beaucoup plus souvent que ce que je viens d’appeler « souvent ») que quand la série σ a conservé l’impression A du doigt D, la série σ′ conserve en même temps l’impression A′ du doigt D′ ; et inversement que si la première impression est altérée, la seconde l’est également. Cela arrive très souvent, mais pas toujours. Nous interprétons ce fait expérimental en disant que l’objet inconnu a qui cause l’impression A au doigt D est identique à l’objet inconnu a′ qui cause l’impression A′ au doigt D′. Et en effet quand le premier objet bouge, ce dont nous avertit la disparition de l’impression A, le second bouge également, puisque l’impression A′ disparaît également. Quand le premier objet reste immobile, le second reste immobile. Si ces ceux objets sont identiques, comme le premier est au point M du premier espace et le second au point N du second espace, c’est que ces deux points sont identiques. Voilà comment nous sommes conduits à regarder ces deux espaces comme identiques ; ou mieux voilà ce que nous voulons dire quand nous disons qu’ils sont identiques. Ce que nous venons de dire de l’identité des deux espaces tactiles nous dispense de discuter la question de l’identité de l’espace tactile et de l’espace visuel qui se traiterait de la même manière. § 5. — L’ESPACE ET L’EMPIRISME. Il semble que je vais être amené à des conclusions conformes aux idées empiristes. J’ai cherché en effet à mettre en évidence le rôle de l’expérience et à analyser les faits expérimentaux qui interviennent dans la genèse de l’espace à trois dimensions. Mais quelle que puisse être l’importance de ces faits, il y a une chose que nous ne devons pas oublier et sur laquelle j’ai d’ailleurs appelé plus d’une fois l’attention. Ces faits expérimentaux se vérifient souvent, mais pas toujours. Cela ne veut évidemment pas dire que l’espace a souvent trois dimensions, mais pas toujours. Je sais bien qu’il est aisé de s’en tirer et que, si les faits ne se vérifient pas, on l’expliquera aisément en disant que les objets extérieurs ont bougé. Si l’expérience réussit, on dit qu’elle nous renseigne sur l’espace ; si elle ne réussit pas, on s’en prend aux objets extérieurs qu’on accuse d’avoir bougé ; en d’autres termes, si elle ne réussit pas on lui donne un coup de pouce. Ces coups de pouce sont légitimes ; je n’en disconviens pas ; mais ils suffisent pour nous avertir que les propriétés de l’espace ne sont pas des vérités expérimentales proprement dites. Si nous avions voulu vérifier d’autres lois, nous aurions pu aussi y parvenir, en donnant d’autres coups de pouce analogues ? N’aurions-nous pas toujours pu justifier ces coups de pouce par les mêmes raisons ? Tout au plus aurait-on pu nous dire : « vos coups de pouce sont légitimes sans doute, mais vous en abusez ; à quoi bon faire bouger si souvent les objets extérieurs ? » En résumé, l’expérience ne nous prouve pas que l’espace a trois dimensions ; elle nous prouve qu’il est commode de lui en attribuer trois, parce que c’est ainsi que le nombre des coups de pouce est réduit au minimum. Ajouterai-je que l’expérience ne nous ferait jamais toucher que l’espace représentatif qui est un continu physique, et non l’espace géométrique qui est un continu mathématique. Tout au plus pourrait-il nous apprendre qu’il est commode de donner à l’espace géométrique trois dimensions pour qu’il en ait autant que l’espace représentatif. La question empirique peut se poser sous une autre forme. Est-il impossible de concevoir les phénomènes physiques, les phénomènes mécaniques, par exemple, autrement que dans l’espace à trois dimensions ? Nous aurions ainsi une preuve expérimentale objective, pour ainsi dire, indépendante de notre physiologie, de nos modes de représentation. Mais il n’en est pas ainsi ; je ne discuterai pas ici complètement la question, je me bornerai à rappeler l’exemple frappant que nous donne la mécanique de Hertz. On sait que le grand physicien ne croyait pas à l’existence des forces proprement dites ; il supposait que les points matériels visibles sont assujettis à certaines liaisons invisibles qui les relient à d’autres points invisibles et que c’est l’effet de ces liaisons invisibles que nous attribuons aux forces. Mais ce n’est là qu’une partie de ses idées. Supposons un système formé de n points matériels visibles ou non ; cela fera en tout 3 n coordonnées ; regardons-les comme les coordonnées d’un point unique dans l’espace à 3 n dimensions. Ce point unique serait assujetti à rester sur une surface (d’un nombre quelconque de dimensions < 3 n) en vertu des liaisons dont nous venons de parler ; pour se rendre sur cette surface, d’un point à un autre, il prendrait toujours le chemin le plus court ; ce serait là le principe unique qui résumerait toute la mécanique. Quoi que l’on doive penser de cette hypothèse, qu’on soit séduit par sa simplicité, ou rebuté par son caractère artificiel, le seul fait que Hertz ait pu la concevoir, et la regarder comme plus commode que nos hypothèses habituelles, suffit pour prouver que nos idées ordinaires, et, en particulier, les trois dimensions de l’espace, ne s’imposent nullement au mécanicien avec une force invincible. § 6. — L’ESPRIT ET L’ESPACE L’expérience n’a donc joué qu’un seul rôle, elle a servi d’occasion. Mais ce rôle n’en était pas moins très important ; et j’ai cru nécessaire de le faire ressortir. Ce rôle aurait été inutile s’il existait une forme a priori s’imposant à notre sensibilité et qui serait l’espace à trois dimensions. Cette forme existe-t-elle, ou, si l’on veut, pouvons-nous nous représenter l’espace à plus de trois dimensions ? Et d’abord que signifie cette question ? Au vrai sens du mot, il est clair que nous ne pouvons nous représenter l’espace à quatre, ni l’espace à trois dimensions ; nous ne pouvons d’abord nous les représenter vides, et nous ne pouvons non plus nous représenter un objet ni dans l’espace à quatre, ni dans l’espace à trois dimensions : 1° parce que ces espaces sont l’un et l’autre infinis et que nous ne pourrions nous représenter une figure dans l’espace, c’est-à-dire la partie dans le tout, sans nous représenter le tout, et cela est impossible, puisque ce tout est infini ; 2° parce que ces espaces sont l’un et l’autre des continus mathématiques et que nous ne pouvons nous représenter que le continu physique ; 3° parce que ces espaces sont l’un et l’autre homogènes, et que les cadres où nous enfermons nos sensations, étant limités, ne peuvent être homogènes. Ainsi la question posée ne peut s’entendre que d’une manière ; est-il possible d’imaginer que, les résultats des expériences relatées plus haut ayant été différents, nous ayons été conduits à attribuer à l’espace plus de trois dimensions ; d’imaginer, par exemple, que la sensation d’accommodation ne soit pas constamment d’accord avec la sensation de convergence des yeux ; ou bien que les expériences dont nous avons parlé au paragraphe 2 et dont nous exprimons le résultat en disant « que le toucher ne s’exerce pas à distance », nous aient conduits à une conclusion inverse. Et alors évidemment oui cela est possible ; du moment qu’on imagine une expérience, on imagine par cela même les deux résultats contraires qu’elle peut donner. Cela est possible, mais cela est difficile, parce que nous avons à vaincre une foule d’associations d’idées, qui sont le fruit d’une longue expérience personnelle et de l’expérience plus longue encore de la race. Sont-ce ces associations (ou du moins celles d’entre elles que nous avons héritées de nos ancêtres), qui constituent cette forme a priori dont on nous dit que nous avons l’intuition pure ? Alors je ne vois pas pourquoi on la déclarerait rebelle à l’analyse et on me dénierait le droit d’en rechercher l’origine. Quand on dit que nos sensations sont « étendues » on ne peut vouloir dire qu’une chose, c’est qu’elles se trouvent toujours associées à l’idée de certaines sensations musculaires, correspondant aux mouvements qui permettraient d’atteindre l’objet qui les cause, qui permettraient, en d’autres termes, de se défendre contre elles. Et c’est justement parce que cette association est utile à la défense de l’organisme, qu’elle est si ancienne dans l’histoire de l’espèce et qu’elle nous semble indestructible. Néanmoins, ce n’est qu’une association et on peut concevoir qu’elle soit rompue ; de sorte qu’on ne peut pas dire que la sensation ne peut entrer dans la conscience sans entrer dans l’espace, mais qu’en fait elle n’entre pas dans la conscience sans entrer dans l’espace, ce qui veut dire, sans être engagée dans cette association. Je ne puis comprendre non plus qu’on dise que l’idée de temps est postérieure logiquement à l’espace, parce que nous ne pouvons nous le représenter que sous la forme d’une droite ; autant dire que le temps est postérieur logiquement à la culture des prairies, parce qu’on se le représente généralement armé d’une faux. Qu’on ne puisse pas se représenter simultanément les diverses parties du temps, cela va de soi, puisque le caractère essentiel de ces parties est précisément de n’être pas simultanées. Cela ne veut pas dire que l’on n’ait pas l’intuition du temps. À ce compte, on n’aurait pas non plus celle de l’espace, car, lui aussi, on ne peut pas se le représenter, au sens propre du mot, pour les raisons que j’ai dites. Ce que nous nous représentons sous le nom de droite est une image grossière qui ressemble aussi mal à la droite géométrique qu’au temps lui-même. Pourquoi a-t-on dit que toute tentative pour donner une quatrième dimension à l’espace ramène toujours celle-ci à l’une des trois autres ? Il est aisé de le comprendre. Envisageons nos sensations musculaires et les « séries » qu’elles peuvent former. À la suite d’expériences nombreuses, les idées de ces séries sont associées entre elles dans une trame très complexe, nos séries sont classées. Qu’on me permette, pour la commodité du langage, d’exprimer ma pensée d’une façon tout à fait grossière et même inexacte en disant que nos séries de sensations musculaires sont classées en trois classes correspondant aux trois dimensions de l’espace. Bien entendu, cette classification est beaucoup plus compliquée que cela, mais cela suffira pour faire comprendre mon raisonnement. Si je veux imaginer une quatrième dimension, je supposerai une autre série de sensations musculaires, faisant partie d’une quatrième classe. Mais comme toutes mes sensations musculaires ont déjà été rangées dans une des trois classes préexistantes, je ne puis me représenter qu’une série appartenant à l’une de ces trois classes, de sorte que ma quatrième dimension est ramenée à l’une des trois autres. Qu’est-ce que cela prouve ? C’est qu’il aurait fallu d’abord détruire l’ancienne classification et la remplacer par une nouvelle où les séries de sensations musculaires auraient été réparties en quatre classes. La difficulté aurait disparu. On la présente, quelquefois, sous une forme plus frappante. Supposons que je sois enfermé dans une chambre entre les six parois infranchissables formées par les quatre murs, le plafond et le plancher ; il me sera impossible d’en sortir et d’imaginer que j’en sorte. — Pardon, ne pouvez-vous vous imaginer que la porte s’ouvre, ou que deux de ces parois s’écartent ? — Mais bien entendu, répondra-t-on, il faut qu’on suppose que ces parois restent immobiles. — Oui, mais il est évident que moi, j’ai le droit de bouger ; et alors les parois que nous supposons en repos absolu seront en mouvement relatif par rapport à moi. — Oui, mais un pareil mouvement relatif ne peut pas être quelconque, quand des objets sont en repos, leur mouvement relatif par rapport à des axes quelconques est celui d’un corps solide invariable ; or, les mouvements apparents que vous imaginez ne sont pas conformes aux lois du mouvement d’un solide invariable. — Oui, mais c’est l’expérience qui nous a appris les lois du mouvement d’un solide invariable ; rien n’empêcherait d’imaginer qu’elles fussent différentes. En résumé, pour m’imaginer que je sors de ma prison, je n’ai qu’à m’imaginer que les parois semblent s’en écarter, quand je remue. Je crois donc que si par espace on entend un continu mathématique à trois dimensions, fût-il d’ailleurs amorphe, c’est l’esprit qui le construit, mais il ne le construit pas avec rien, il lui faut des matériaux et des modèles. Ces matériaux comme ces modèles préexistent en lui. Mais il n’y a pas un modèle unique qui s’impose à lui ; il a du choix ; il peut choisir, par exemple, entre l’espace à quatre et l’espace à trois dimensions. Quel est alors le rôle de l’expérience ? C’est elle qui lui donne les indications d’après lesquelles il fait son choix. Autre chose : d’où vient à l’espace son caractère quantitatif ? Il vient du rôle que jouent dans sa genèse les séries de sensations musculaires. Ce sont des séries qui peuvent se répéter, et c’est de leur répétition que vient le nombre ; c’est parce qu’elles peuvent se répéter indéfiniment que l’espace est infini. Et enfin nous avons vu à la fin du paragraphe 3 que c’est aussi pour cela que l’espace est relatif. Ainsi c’est la répétition qui a donné à l’espace ses caractères essentiels ; or, la répétition suppose le temps ; c’est assez dire que le temps est antérieur logiquement à l’espace. § 7. — RÔLE DES CANAUX SEMI-CIRCULAIRES Je n’ai pas parlé jusqu’ici du rôle de certains organes auxquels les physiologistes attribuent avec raison une importance capitale, je veux parler des canaux semi-circulaires. De nombreuses expériences ont suffisamment montré que ces canaux sont nécessaires à notre sens d’orientation ; mais les physiologistes ne sont pas entièrement d’accord ; deux théories opposées ont été proposées, celle de Mach-Delage et celle de M. de Cyon. M. de Cyon est un physiologiste qui a illustré son nom par d’importantes découvertes sur l’innervation du cœur ; je ne saurais toutefois partager ses idées sur la question qui nous occupe. N’étant pas physiologiste, j’hésite à critiquer les expériences qu’il a dirigées contre la théorie adverse de Mach-Delage ; il me semble cependant qu’elles ne sont pas probantes, car dans beaucoup d’entre elles on faisait varier la pression dans un des canaux tout entier, tandis que, physiologiquement, ce qui varie, c’est la différence entre les pressions sur les deux extrémités du canal ; dans d’autres, les organes étaient profondément lésés, ce qui devait en altérer les fonctions. Peu importe d’ailleurs ; les expériences, si elles étaient irréprochables, pourraient être probantes contre la théorie ancienne. Elles ne pourraient l’être pour la théorie nouvelle. Si, en effet, j’ai bien compris la théorie, il me suffira de l’exposer pour qu’on comprenne qu’il est impossible de concevoir une expérience qui la confirme. Les trois paires de canaux auraient pour unique fonction de nous avertir que l’espace a trois dimensions. Les souris japonaises n’ont que deux paires de canaux ; elles croient, paraît-il, que l’espace n’a que deux dimensions, et elles manifestent cette opinion de la façon la plus étrange ; elles se rangent en cercle, chacune d’elles mettant le nez sous la queue de la précédente, et, ainsi rangées, elles se mettent à tourner rapidement. Les lamproies, n’ayant qu’une paire de canaux, croient que l’espace n’a qu’une dimension, mais leurs manifestations sont moins tumultueuses. Il est évident qu’une semblable théorie n’est pas admissible. Les organes des sens sont destinés à nous avertir des changements qui se produisent dans le monde extérieur. On ne comprendrait pas pourquoi le créateur nous aurait donné des organes destinés à nous crier sans cesse : Souviens-toi que l’espace a trois dimensions, puisque le nombre de ces trois dimensions n’est pas sujet au changement. Nous devons donc en revenir à la théorie de Mach-Delage. Ce que peuvent nous faire connaître les nerfs des canaux, c’est la différence de pression sur les deux extrémités d’un même canal, et par là : 1° La direction de la verticale par rapport à trois axes invariablement liés à la tête ; 2° Les trois composantes de l’accélération de translation du centre de gravité de la tête ; 3° Les forces centrifuges développées par la rotation de la tête ; 4° L’accélération du mouvement de rotation de la tête. Il résulte des expériences de M. Delage que c’est cette dernière indication qui est de beaucoup la plus importante ; sans doute parce que les nerfs sont moins sensibles à la différence de pression elle-même qu’aux variations brusques de cette différence. Les trois premières indications peuvent ainsi être négligées. Connaissant l’accélération du mouvement de rotation de la tête à chaque instant, nous en déduisons, par une intégration inconsciente, l’orientation finale de la tête, rapportée à une certaine orientation initiale prise pour origine. Les canaux circulaires contribuent donc à nous renseigner sur les mouvements que nous avons exécutés, et cela au même titre que les sensations musculaires. Quand donc, plus haut, nous parlions de la série S ou de la série Σ, nous aurions dû dire, non que c’étaient des séries de sensations musculaires seulement, mais que c’étaient des séries à la fois de sensations musculaires et de sensations dues aux canaux semi-circulaires. À part cette addition, nous n’aurions rien à changer à ce qui précède. Dans ces séries S et Σ, ces sensations de canaux semi-circulaires tiennent évidemment une place tout à fait importante. À elles seules elles ne suffiraient pas cependant ; car elles ne peuvent nous renseigner que sur les mouvements de la tête, elles ne nous apprennent rien sur les mouvements relatifs du tronc ou des membres par rapport à la tête. De plus, il semble qu’elles nous renseignent seulement sur les rotations de la tête et non sur les translations qu’elle peut subir.     DEUXIÈME PARTIE LES SCIENCES PHYSIQUES     CHAPITRE V L’Analyse et la Physique. I On vous a sans doute souvent demandé à quoi servent les mathématiques et si ces délicates constructions que nous tirons tout entières de notre esprit ne sont pas artificielles et enfantées par notre caprice. Parmi les personnes qui font cette question, je dois faire une distinction ; les gens pratiques réclament seulement de nous le moyen de gagner de l’argent. Ceux-là ne méritent pas qu’on leur réponde ; c’est à eux plutôt qu’il conviendrait de demander à quoi bon accumuler tant de richesses et si, pour avoir le temps de les acquérir, il faut négliger l’art et la science qui seuls nous font des âmes capables d’en jouir,       et propter vitam vivendi perdere causas. D’ailleurs, une science uniquement faite en vue des applications est impossible ; les vérités ne sont fécondes que si elles sont enchaînées les unes aux autres. Si l’on s’attache seulement à celles dont on attend un résultat immédiat, les anneaux intermédiaires manqueront, et il n’y aura plus de chaîne. Les hommes les plus dédaigneux de la théorie y trouvent sans s’en douter un aliment quotidien ; si l’on était privé de cet aliment, le progrès s’arrêterait rapidement et nous nous figerions bientôt dans l’immobilité de la Chine. Mais c’est assez nous occuper des praticiens intransigeants. À côté d’eux, il y a ceux qui sont seulement curieux de la nature et qui nous demandent si nous sommes en état de la leur mieux faire connaître. Pour leur répondre, nous n’avons qu’à leur montrer les deux monuments déjà ébauchés de la Mécanique Céleste et de la Physique Mathématique. Ils nous concéderaient sans doute que ces monuments valent bien la peine qu’ils nous ont coûtée. Mais ce n’est pas assez. Les mathématiques ont un triple but. Elles doivent fournir un instrument pour l’étude de la nature. Mais ce n’est pas tout : elles ont un but philosophique et, j’ose le dire, un but esthétique. Elles doivent aider le philosophe à approfondir les notions de nombre, d’espace, de temps. Et surtout leurs adeptes y trouvent des jouissances analogues à celles que donnent la peinture et la musique. Ils admirent la délicate harmonie des nombres et des formes ; ils s’émerveillent quand une découverte nouvelle leur ouvre une perspective inattendue ; et la joie qu’ils éprouvent ainsi n’a- t-elle pas le caractère esthétique, bien que les sens n’y prennent aucune part ? Peu de privilégiés sont appelés à la goûter pleinement, cela est vrai, mais n’est-ce pas ce qui arrive pour les arts les plus nobles ? C’est pourquoi je n’hésite pas à dire que les mathématiques méritent d’être cultivées pour elles-mêmes et que les théories qui ne peuvent être appliquées à la physique doivent l’être comme les autres. Quand même le but physique et le but esthétique ne seraient pas solidaires, nous ne devrions sacrifier ni l’un ni l’autre. Mais il y a plus : ces deux buts sont inséparables et le meilleur moyen d’atteindre l’un c’est de viser l’autre, ou du moins de ne jamais le perdre de vue. C’est ce que je vais m’efforcer de démontrer en précisant la nature des rapports entre la science pure et ses applications. Le mathématicien ne doit pas être pour le physicien un simple fournisseur de formules ; il faut qu’il y ait entre eux une collaboration plus intime. La physique mathématique et l’analyse pure ne sont pas seulement des puissances limitrophes, entretenant des rapports de bon voisinage ; elles se pénètrent mutuellement et leur esprit est le même. C’est ce que l’on comprendra mieux quand j’aurai montré ce que la physique reçoit de la mathématique et ce que la mathématique, en retour, emprunte à la physique. II Le physicien ne peut demander à l’analyste de lui révéler une vérité nouvelle ; tout au plus celui-ci pourrait-il l’aider à la pressentir. Il y a longtemps que personne ne songe plus à devancer l’expérience, ou à construire le monde de toutes pièces sur quelques hypothèses hâtives. De toutes ces constructions où l’on se complaisait encore naïvement il y a un siècle, il ne reste plus aujourd’hui que des ruines. Toutes les lois sont donc tirées de l’expérience ; mais pour les énoncer, il faut une langue spéciale ; le langage ordinaire est trop pauvre, il est d’ailleurs trop vague, pour exprimer des rapports si délicats, si riches et si précis. Voilà donc une première raison pour laquelle le physicien ne peut se passer des mathématiques ; elles lui fournissent la seule langue qu’il puisse parler. Et ce n’est pas une chose indifférente qu’une langue bien faite ; pour ne pas sortir de la physique, l’homme inconnu qui a inventé le mot chaleur a voué bien des générations à l’erreur. On a traité la chaleur comme une substance, simplement parce qu’elle était désignée par un substantif, et on l’a crue indestructible. En revanche, celui qui a inventé le mot électricité a eu le bonheur immérité de doter implicitement la physique d’une loi nouvelle, celle de la conservation de l’électricité, qui, par un pur hasard, s’est trouvée exacte, du moins jusqu’à présent. Eh bien, pour poursuivre la comparaison, les écrivains qui embellissent une langue, qui la traitent comme un objet d’art, en font en même temps un instrument plus souple, plus apte à rendre les nuances de la pensée. On comprend alors comment l’analyste, qui poursuit un but purement esthétique, contribue par cela même à créer une langue plus propre à satisfaire le physicien. Mais ce n’est pas tout ; la loi sort de l’expérience, mais elle n’en sort pas immédiatement. L’expérience est individuelle, la loi qu’on en tire est générale, l’expérience n’est qu’approchée, la loi est précise ou du moins prétend l’être. L’expérience se fait dans des conditions toujours complexes, l’énoncé de la loi élimine ces complications. C’est ce qu’on appelle « corriger les erreurs systématiques ». En un mot, pour tirer la loi de l’expérience, il faut généraliser ; c’est une nécessité qui s’impose à l’observateur le plus circonspect. Mais comment généraliser ? Toute vérité particulière peut évidemment être étendue d’une infinité de manières. Entre ces mille chemins qui s’ouvrent devant nous, il faut faire un choix, au moins provisoire ; dans ce choix, qui nous guidera ? Ce ne pourra être que l’analogie. Mais que ce mot est vague ! L’homme primitif ne connaît que les analogies grossières, celles qui frappent les sens, celles des couleurs ou des sons. Ce n’est pas lui qui aurait songé à rapprocher par exemple la lumière de la chaleur rayonnante. Qui nous a appris à connaître les analogies véritables, profondes, celles que les yeux ne voient pas et que la raison devine ? C’est l’esprit mathématique, qui dédaigne la matière pour ne s’attacher qu’à la forme pure. C’est lui qui nous a enseigné à nommer du même nom des êtres qui ne diffèrent que par la matière, à nommer du même nom par exemple la multiplication des quaternions et celle des nombres entiers. Si les quaternions, dont je viens de parler, n’avaient été si promptement utilisés par les physiciens anglais, bien des personnes n’y verraient sans doute qu’une rêverie oiseuse, et pourtant, en nous apprenant à rapprocher ce que les apparences séparent, ils nous auraient déjà rendus plus aptes à pénétrer les secrets de la nature. Voilà les services que le physicien doit attendre de l’analyse, mais pour que cette science puisse les lui rendre, il faut qu’elle soit cultivée de la façon la plus large, sans préoccupation immédiate d’utilité, il faut que le mathématicien ait travaillé en artiste. Ce que nous lui demandons c’est de nous aider à voir, à discerner notre chemin dans le dédale qui s’offre à nous. Or, celui qui voit le mieux, c’est celui qui s’est élevé le plus haut. Les exemples abondent, et je me bornerai aux plus frappants. Le premier nous montrera comment il suffit de changer de langage pour apercevoir des généralisations qu’on n’avait pas d’abord soupçonnées. Quand la loi de Newton s’est substituée à celle de Képler, on ne connaissait encore que le mouvement elliptique. Or, en ce qui concerne ce mouvement, les deux lois ne diffèrent que par la forme ; on passe de l’une à l’autre par une simple différenciation. Et cependant, de la loi de Newton, on peut déduire, par une généralisation immédiate, tous les effets des perturbations et toute la mécanique céleste. Jamais au contraire, si l’on avait conservé l’énoncé de Képler, on n’aurait regardé les orbites des planètes troublées, ces courbes compliquées dont personne n’a jamais écrit l’équation, comme les généralisations naturelles de l’ellipse. Les progrès des observations n’auraient servi qu’à faire croire au chaos. Le second exemple mérite également d’être médité. Quand Maxwell a commencé ses travaux, les lois de l’électrodynamique admises jusqu’à lui rendaient compte de tous les faits connus. Ce n’est pas une expérience nouvelle qui est venue les infirmer. Mais en les envisageant sous un biais nouveau, Maxwell a reconnu que les équations deviennent plus symétriques quand on y ajoute un terme, et d’autre part ce terme était trop petit pour produire des effets appréciables avec les méthodes anciennes. On sait que les vues a priori de Maxwell ont attendu vingt ans une confirmation expérimentale ; ou si vous aimez mieux, Maxwell a devancé de vingt ans l’expérience. Comment ce triomphe a-t-il été obtenu ? C’est que Maxwell était profondément imprégné du sentiment de la symétrie mathématique ; en aurait-il été de même, si d’autres n’avaient avant lui recherché cette symétrie pour sa beauté propre ? C’est que Maxwell était habitué à « penser en vecteurs » et pourtant si les vecteurs se sont introduits dans l’analyse, c’est par la théorie des imaginaires. Et ceux qui ont inventé les imaginaires ne se doutaient guère du parti qu’on en tirerait pour l’étude du monde réel ; le nom qu’ils leur ont donné le prouve suffisamment. Maxwell en un mot n’était peut-être pas un habile analyste, mais cette habileté n’aurait été pour lui qu’un bagage inutile et gênant. Au contraire il avait au plus haut degré le sens intime des analogies mathématiques. C’est pour cela qu’il a fait de bonne physique mathématique. L’exemple de Maxwell nous apprend encore autre chose. Comment faut-il traiter les équations de la physique mathématique ? devons-nous simplement en déduire toutes les conséquences, et les regarder comme des réalités intangibles ? Loin de là ; ce qu’elles doivent nous apprendre surtout, c’est ce qu’on peut et ce qu’on doit y changer. C’est comme cela que nous en tirerons quelque chose d’utile. Le troisième exemple va nous montrer comment nous pouvons apercevoir des analogies mathématiques entre des phénomènes qui n’ont physiquement aucun rapport ni apparent, ni réel, de telle sorte que les lois de l’un de ces phénomènes nous aident à deviner celles de l’autre. Une même équation, celle de Laplace, se rencontre dans la théorie de l’attraction newtonienne, dans celle du mouvement des liquides, dans celle du potentiel électrique, dans celle du magnétisme, dans celle de la propagation de la chaleur et dans bien d’autres encore. Qu’en résulte-t-il ? Ces théories semblent des images calquées l’une sur l’autre ; elles s’éclairent mutuellement, en s’empruntant leur langage ; demandez aux électriciens s’ils ne se félicitent pas d’avoir inventé le mot de flux de force, suggéré par l’hydrodynamique et la théorie de la chaleur. Ainsi les analogies mathématiques, non seulement peuvent nous faire pressentir les analogies physiques, mais encore ne cessent pas d’être utiles, quand ces dernières font défaut. En résumé le but de la physique mathématique n’est pas seulement de faciliter au physicien le calcul numérique de certaines constantes ou l’intégration de certaines équations différentielles. Il est encore, il est surtout de lui faire connaître l’harmonie cachée des choses en les lui faisant voir d’un nouveau biais. De toutes les parties de l’analyse, ce sont les plus élevées, ce sont les plus pures, pour ainsi dire, qui seront les plus fécondes entre les mains de ceux qui savent s’en servir. III Voyons maintenant ce que l’analyse doit à la physique. Il faudrait avoir complètement oublié l’histoire de la science pour ne pas se rappeler que le désir de connaître la nature a eu sur le développement des mathématiques l’influence la plus constante et la plus heureuse. En premier lieu, le physicien nous pose des problèmes dont il attend de nous la solution. Mais en nous les proposant, il nous a payé largement d’avance le service que nous pourrons lui rendre, si nous parvenons à les résoudre. Si l’on veut me permettre de poursuivre ma comparaison avec les beaux-arts, le mathématicien pur qui oublierait l’existence du monde extérieur, serait semblable à un peintre qui saurait harmonieusement combiner les couleurs et les formes, mais à qui les modèles feraient défaut. Sa puissance créatrice serait bientôt tarie. Les combinaisons que peuvent former les nombres et les symboles sont une multitude infinie. Dans cette multitude, comment choisirons-nous celles qui sont dignes de retenir notre attention ? Nous laisserons-nous uniquement guider par notre caprice ? Ce caprice, qui lui-même d’ailleurs ne tarderait pas à se lasser, nous entraînerait sans doute bien loin les uns des autres et nous cesserions promptement de nous entendre entre nous. Mais ce n’est là que le petit côté de la question. La physique nous empêchera sans doute de nous égarer, mais elle nous préservera aussi d’un danger bien plus redoutable ; elle nous empêchera de tourner sans cesse dans le même cercle. L’histoire le prouve, la physique ne nous a pas seulement forcés de choisir entre les problèmes qui se présentaient en foule ; elle nous en a imposé auxquels nous n’aurions jamais songé sans elle. Quelque variée que soit l’imagination de l’homme, la nature est mille fois plus riche encore. Pour la suivre, nous devons prendre des chemins que nous avions négligés et ces chemins nous conduisent souvent à des sommets d’où nous découvrons des paysages nouveaux. Quoi de plus utile ! Il en est des symboles mathématiques comme des réalités physiques ; c’est en comparant les aspects différents des choses que nous pourrons en comprendre l’harmonie intime, qui seule est belle et par conséquent digne de nos efforts. Le premier exemple que je citerai est tellement ancien qu’on serait tenté de l’oublier ; il n’en est pas moins le plus important de tous. Le seul objet naturel de la pensée mathématique, c’est le nombre entier. C’est le monde extérieur qui nous a imposé le continu, que nous avons inventé sans doute, mais qu’il nous a forcés à inventer. Sans lui il n’y aurait pas d’analyse infinitésimale ; toute la science mathématique se réduirait à l’arithmétique ou à la théorie des substitutions. Au contraire, nous avons consacré à l’étude du continu presque tout notre temps et toutes nos forces. Qui le regrettera ; qui croira que ce temps et ces forces ont été perdus ? L’analyse nous déroule des perspectives infinies que l’arithmétique ne soupçonne pas ; elle vous montre d’un coup d’œil un ensemble grandiose, dont l’ordonnance est simple et symétrique ; au contraire, dans la théorie des nombres, où règne l’imprévu, la vue est pour ainsi dire arrêtée à chaque pas. Sans doute on vous dira qu’en dehors du nombre entier, il n’y a pas de rigueur, et par conséquent pas de vérité mathématique ; que partout il se cache, et qu’il faut s’efforcer de rendre transparents les voiles qui le dissimulent, dût-on pour cela se résigner à d’interminables redites. Ne soyons pas si puristes et soyons reconnaissants au continu qui, si tout sort du nombre entier, était seul capable d’en faire tant sortir. Ai-je besoin d’ailleurs de rappeler que M. Hermite a tiré un parti surprenant de l’introduction des variables continues dans la théorie des nombres ? Ainsi le domaine propre du nombre entier est envahi lui-même, et cette invasion a établi l’ordre, là où régnait le désordre. Voilà ce que nous devons au continu et par conséquent à la nature physique. La série de Fourier est un instrument précieux dont l’analyse fait un usage continuel, c’est par ce moyen qu’elle a pu représenter des fonctions discontinues ; si Fourier l’a inventée, c’est pour résoudre un problème de physique relatif à la propagation de la chaleur. Si ce problème ne s’était posé naturellement, on n’aurait jamais osé rendre au discontinu ses droits ; on aurait longtemps encore regardé les fonctions continues comme les seules fonctions véritables. La notion de fonction s’est par là considérablement étendue et a reçu de quelques analystes logiciens un développement imprévu. Ces analystes se sont ainsi aventurés dans des régions où règne l’abstraction la plus pure et se sont éloignés autant qu’il est possible du monde réel. C’est cependant un problème de physique qui leur en a fourni l’occasion. Derrière la série de Fourrier, d’autres séries analogues sont entrées dans le domaine de l’analyse ; elles y sont entrées par la même porte ; elles ont été imaginées en vue des applications. La théorie des équations aux dérivées partielles du second ordre a eu une histoire analogue ; elle s’est développée surtout par et pour la physique. Mais elle peut prendre bien des formes ; car une pareille équation ne suffit pas pour déterminer la fonction inconnue, il faut y adjoindre des conditions complémentaires qu’on appelle conditions aux limites ; d’où bien des problèmes différents. Si les analystes s’étaient abandonnés à leurs tendances naturelles, ils n’en auraient jamais connu qu’un, celui qu’a traité M me de Kowalevski dans son célèbre mémoire. Mais il y en a une foule d’autres qu’ils auraient ignorés. Chacune des théories physiques, celle de l’électricité, celle de la chaleur, nous présente ces équations sous un aspect nouveau. On peut donc dire que sans elles, nous ne connaîtrions pas les équations aux dérivées partielles. Il est inutile de multiplier les exemples. J’en ai dit assez pour pouvoir conclure : quand les physiciens nous demandent la solution d’un problème, ce n’est pas une corvée qu’ils nous imposent, c’est nous au contraire qui leur devons des remercîments. IV Mais ce n’est pas tout ; la physique ne nous donne pas seulement l’occasion de résoudre des problèmes ; elle nous aide à en trouver les moyens, et cela de deux manières. Elle nous fait pressentir la solution ; elle nous suggère des raisonnements. J’ai parlé plus haut de l’équation de Laplace que l’on rencontre dans une foule de théories physiques fort éloignées les unes des autres. On la retrouve en géométrie, dans la théorie de la représentation conforme et en analyse pure, dans celle des imaginaires. De cette façon, dans l’étude des fonctions de variables complexes, l’analyste, à côté de l’image géométrique, qui est son instrument habituel, trouve plusieurs images physiques dont il peut faire usage avec le même succès. Grâce à ces images, il peut voir d’un coup d’œil ce que la déduction pure ne lui montrerait que successivement. Il rassemble ainsi les éléments épars de la solution, et par une sorte d’intuition devine avant de pouvoir démontrer. Deviner avant de démontrer ? Ai-je besoin de rappeler que c’est ainsi que se sont faites toutes les découvertes importantes ? Combien de vérités que les analogies physiques nous permettent de pressentir et que nous ne sommes pas en état d’établir par un raisonnement rigoureux ! Par exemple, la physique mathématique introduit un grand nombre de développements en séries. Ces développements convergent, personne n’en doute ; mais la certitude mathématique fait défaut. Ce sont autant de conquêtes assurées pour les chercheurs qui viendront après nous. La physique, d’autre part, ne nous fournit pas seulement des solutions ; elle nous fournit encore, dans une certaine mesure, des raisonnements. Il me suffira de rappeler comment M. Klein, dans une question relative aux surfaces de Riemann, a eu recours aux propriétés des courants électriques. Il est vrai que les raisonnements de ce genre ne sont pas rigoureux, au sens que l’analyste attache à ce mot. Et, à ce propos, une question se pose : comment une démonstration, qui n’est pas assez rigoureuse pour l’analyste, peut-elle suffire au physicien ? Il semble qu’il ne peut y avoir deux rigueurs, que la rigueur est ou n’est pas, et que, là où elle n’est pas, il ne peut y avoir de raisonnement. On comprendra mieux ce paradoxe apparent, en se rappelant dans quelles conditions le nombre s’applique aux phénomènes naturels. D’où proviennent en général les difficultés que l’on rencontre quand on recherche la rigueur ? On s’y heurte presque toujours en voulant établir que telle quantité tend vers telle limite, ou que telle fonction est continue, ou qu’elle a une dérivée. Or les nombres que le physicien mesure par l’expérience ne lui sont jamais connus qu’approximativement ; et, d’autre part, une fonction quelconque diffère toujours aussi peu que l’on veut d’une fonction discontinue, et en même temps elle diffère aussi peu que l’on veut d’une fonction continue. Le physicien peut donc supposer à son gré, que la fonction étudiée est continue, ou qu’elle est discontinue ; qu’elle a une dérivée, ou qu’elle n’en a pas ; et cela sans crainte d’être jamais contredit, ni par l’expérience actuelle, ni par aucune expérience future. On conçoit, qu’avec cette liberté, il se joue des difficultés qui arrêtent l’analyste. Il peut toujours raisonner comme si toutes les fonctions qui s’introduisent dans ses calculs étaient des polynômes entiers. Ainsi l’aperçu qui suffit à la physique n’est pas le raisonnement qu’exige l’analyse. Il ne s’en suit pas que l’un ne puisse aider à trouver l’autre. On a déjà transformé en démonstrations rigoureuses tant d’aperçus physiques que cette transformation est aujourd’hui facile. Les exemples abonderaient si je ne craignais, en les citant, de fatiguer l’attention du lecteur. J’espère en avoir assez dit pour montrer que l’analyse pure et la physique mathématique peuvent se servir l’une l’autre sans se faire l’une à l’autre aucun sacrifice et que chacune de ces deux sciences doit se réjouir de tout ce qui élève son associée.     CHAPITRE VI L’Astronomie Les Gouvernements et les Parlements doivent trouver que l’Astronomie est une des sciences qui coûtent le plus cher : le moindre instrument coûte des centaines de mille francs, le moindre Observatoire coûte des millions ; chaque éclipse entraîne à sa suite des crédits supplémentaires. Et tout cela pour des astres qui sont si loin, qui sont complètement étrangers à nos luttes électorales et n’y prendront vraisemblablement jamais aucune part. Il faut que nos hommes politiques aient conservé un reste d’idéalisme, un vague instinct de ce qui est grand ; vraiment, je crois qu’ils ont été calomniés ; il convient de les encourager et de leur bien montrer que cet instinct ne les trompe pas, et qu’ils ne sont pas dupes de cet idéalisme. On pourrait bien leur parler de la marine, dont personne ne peut méconnaître l’importance, et qui a besoin de l’Astronomie. Mais ce serait prendre la question par son petit côté. L’Astronomie est utile, parce qu’elle nous élève au-dessus de nous- mêmes ; elle est utile, parce qu’elle est grande ; elle est utile, parce qu’elle est belle ; voilà ce qu’il faut dire. C’est elle qui nous montre combien l’homme est petit par le corps et combien il est grand par l’esprit, puisque cette immensité éclatante où son corps n’est qu’un point obscur, son intelligence peut l’embrasser tout entière et en goûter la silencieuse harmonie. Nous atteignons ainsi à la conscience de notre force, et c’est là ce que nous ne saurions acheter trop cher, parce que cette conscience nous rend plus forts. Mais ce que je voudrais vous montrer avant tout, c’est à quel point l’Astronomie a facilité l’œuvre des autres sciences, plus directement utiles, parce que c’est elle qui nous a fait une âme capable de comprendre la nature. Vous figurez-vous combien l’humanité serait diminuée, si, sous un ciel constamment couvert de nuages, comme doit l’être celui de Jupiter, elle avait éternellement ignoré les astres ? Croyez-vous que, dans un pareil monde, nous serions ce que nous sommes ? J’entends bien que sous cette sombre voûte, nous aurions été privés de la lumière du Soleil, nécessaire à des organismes comme ceux qui habitent la Terre. Mais, si vous voulez bien, nous admettrons que ces nuages sont phosphorescents et qu’ils répandent une lueur douce et constante. Puisque nous sommes en train de faire des hypothèses, une hypothèse de plus ne nous coûtera pas davantage. Eh bien ! je répète ma question : croyez-vous que, dans un pareil monde, nous serions ce que nous sommes ? C’est que les astres ne nous envoient pas seulement cette lumière visible et grossière qui frappe nos yeux de chair, c’est d’eux aussi que nous vient une lumière bien autrement subtile, qui éclaire nos esprits et dont je vais essayer de vous montrer les effets. Vous savez ce qu’était l’homme sur la Terre, il y a quelques milliers d’années, et ce qu’il est aujourd’hui. Isolé au milieu d’une nature où tout pour lui était mystère, effaré à chaque manifestation inattendue de forces incompréhensibles, il était incapable de voir dans la conduite de l’univers autre chose que le caprice ; il attribuait tous les phénomènes à l’action d’une multitude de petits génies fantasques et exigeants, et, pour agir sur le monde, il cherchait à se les concilier par des moyens analogues à ceux qu’on emploie pour gagner les bonnes grâces d’un ministre ou d’un député. Ses insuccès mêmes ne l’éclairaient pas, pas plus qu’aujourd’hui un solliciteur éconduit ne se décourage au point de cesser de solliciter. Aujourd’hui, nous ne sollicitons plus la Nature : nous lui commandons, parce que nous avons découvert quelques-uns de ses secrets et que nous en découvrons chaque jour de nouveaux. Nous lui commandons au nom de lois qu’elle ne peut récuser, parce que ce sont les siennes ; ces lois, nous ne lui demandons pas follement de les changer, nous sommes les premiers à nous y soumettre. Naturæ non imperatur nisi parendo. Quel changement ont dû subir nos âmes pour passer d’un état à l’autre ? Croit-on que, sans les leçons des astres, sous le ciel perpétuellement nuageux que je supposais tout à l’heure, elles auraient changé si vite ? La métamorphose aurait-elle été possible, ou du moins n’aurait-elle pas été beaucoup plus lente ? Et d’abord, c’est l’Astronomie qui nous a appris qu’il y a des lois. Les Chaldéens qui, les premiers, ont regardé le ciel avec quelque attention, ont bien vu que cette multitude de points lumineux n’est pas une foule confuse errant à l’aventure, mais plutôt une armée disciplinée. Sans doute les règles de cette discipline leur échappaient, mais le spectacle harmonieux de la nuit étoilée suffisait pour leur donner l’impression de la régularité, et c’était déjà beaucoup. Ces règles, d’ailleurs, Hipparque, Ptolémée, Copernic, Kepler les ont discernées l’une après l’autre, et, enfin, il est inutile de rappeler que c’est Newton qui a énoncé la plus ancienne, la plus précise, la plus simple, la plus générale de toutes les lois naturelles. Et alors, avertis par cet exemple, nous avons mieux regardé notre petit monde terrestre et, sous le désordre apparent, là aussi nous avons retrouvé l’harmonie que l’étude du Ciel nous avait fait connaître. Lui aussi est régulier, lui aussi obéit à des lois immuables, mais elles sont plus compliquées, en conflit apparent les unes avec les autres, et un œil qui n’aurait pas été accoutumé à d’autres spectacles, n’y aurait vu que le chaos et le règne du hasard ou du caprice. Si nous n’avions pas connu les astres, quelques esprits hardis auraient peut-être cherché à prévoir les phénomènes physiques ; mais leurs insuccès auraient été fréquents et ils n’auraient excité que la risée du vulgaire ; ne voyons-nous pas que, même de nos jours, les météorologistes se trompent quelquefois, et que certaines personnes sont portées à en rire. Combien de fois, les physiciens, rebutés partant d’échecs, ne se seraient- ils pas laissés aller au découragement, s’ils n’avaient eu, pour soutenir leur confiance, l’exemple éclatant du succès des astronomes ! Ce succès leur montrait que la Nature obéit à des lois ; il ne leur restait plus qu’à savoir à quelles lois ; pour cela, ils n’avaient besoin que de patience, et ils avaient le droit de demander que les sceptiques leur fissent crédit. Ce n’est pas tout : l’Astronomie ne nous a pas appris seulement qu’il y a des lois, mais que ces lois sont inéluctables, qu’on ne transige pas avec elles ; combien de temps nous aurait-il fallu pour le comprendre, si nous n’avions connu que le monde terrestre, où chaque force élémentaire nous apparaît toujours comme en lutte avec d’autres forces ? Elle nous a appris que les lois sont infiniment précises, et que si celles que nous énonçons sont approximatives, c’est parce que nous les connaissons mal. Aristote, l’esprit le plus scientifique de l’antiquité, accordait encore une part à l’accident, au hasard, et semblait penser que les lois de la Nature, au moins ici-bas, ne déterminent que les grands traits des phénomènes. Combien la précision toujours croissante des prédictions astronomiques a-t-elle contribué à faire justice d’une telle erreur qui aurait rendu la Nature inintelligible ! Mais ces lois ne sont-elles pas locales, variables d’un point à l’autre, comme celles que font les hommes ; ce qui est la vérité dans un coin de l’univers, sur notre globe, par exemple, ou dans notre petit système solaire, ne va-t-il pas devenir l’erreur un peu plus loin ? Et alors ne pourra-t-on pas se demander si les lois dépendant de l’espace ne dépendent pas aussi du temps, si elles ne sont pas de simples habitudes, transitoires, par conséquent, et éphémères ? C’est encore l’Astronomie qui va répondre à cette question. Regardons les étoiles doubles ; toutes décrivent des coniques ; ainsi, si loin que porte le télescope, il n’atteint pas les limites du domaine qui obéit à la loi de Newton. Il n’est pas jusqu’à la simplicité de cette loi qui ne soit une leçon pour nous ; que de phénomènes compliqués contenus dans les deux lignes de son énoncé ; les personnes qui ne comprennent pas la Mécanique céleste peuvent s’en rendre compte du moins en voyant la grosseur des traités consacrés à cette science ; et alors il est permis d’espérer que la complication des phénomènes physiques nous dissimule également je ne sais quelle cause simple encore inconnue. C’est donc l’Astronomie qui nous a montré quels sont les caractères généraux des lois naturelles ; mais, parmi ces caractères, il y en a un, le plus subtil et le plus important de tous, sur lequel je vous demanderai la permission d’insister un peu. Comment l’ordre de l’univers était-il compris par les anciens ; par exemple par Pythagore, Platon ou Aristote ? C’était ou un type immuable fixé une fois pour toutes, ou un idéal dont le monde cherchait à se rapprocher. C’est encore ainsi que pensait Kepler lui-même quand, par exemple, il cherchait si les distances des planètes au Soleil n’avaient pas quelque rapport avec les cinq polyèdres réguliers. Cette idée n’avait rien d’absurde, mais elle eût été stérile, puisque ce n’est pas ainsi que la Nature est faite. C’est Newton qui nous a montré qu’une loi n’est qu’une relation nécessaire entre l’état présent du monde et son état immédiatement postérieur. Toutes les autres lois, découvertes depuis, ne sont pas autre chose, ce sont, en somme, des équations différentielles ; mais c’est l’Astronomie qui nous en a fourni le premier modèle sans lequel nous aurions sans doute erré bien longtemps. C’est elle aussi qui nous a le mieux appris à nous défier des apparences. Le jour où Copernic a prouvé que ce qu’on croyait le plus stable était en mouvement, que ce qu’on croyait mobile était fixe, il nous a montré combien pouvaient être trompeurs les raisonnements enfantins qui sortent directement des données immédiates de nos sens ; certes, ses idées n’ont pas triomphé sans peine, mais, après ce triomphe, il n’est plus de préjugé si invétéré que nous ne soyons de force à secouer. Comment estimer le prix de l’arme nouvelle ainsi conquise ? Les anciens croyaient que tout était fait pour l’homme, et il faut croire que cette illusion est bien tenace, puisqu’il faut sans cesse la combattre. Il faut pourtant qu’on s’en dépouille ; ou bien on ne sera qu’un éternel myope, incapable de voir la vérité. Pour comprendre la Nature, il faut pouvoir sortir de soi-même, pour ainsi dire, et la contempler de plusieurs points de vue différents ; sans cela, on n’en connaîtra jamais qu’un côté. Or, sortir de lui- même, c’est ce que ne peut faire celui qui rapporte tout à lui-même. Qui donc nous a délivrés de cette illusion ? Ce furent ceux qui nous ont montré que la Terre n’est qu’une des plus petites planètes du Système solaire, et que le Système solaire, lui-même, n’est qu’un point imperceptible dans les espaces infinis de l’Univers stellaire. En même temps, l’Astronomie nous apprenait à ne pas nous effrayer des grands nombres, et cela était nécessaire, non seulement pour connaître le Ciel, mais pour connaître la Terre elle-même ; et cela n’était pas aussi facile qu’il nous le semble aujourd’hui. Essayons de revenir en arrière et de nous figurer ce qu’aurait pensé un Grec à qui l’on serait venu dire que la lumière rouge vibre quatre cent millions de millions de fois par seconde. Sans aucun doute, une pareille assertion lui aurait paru une pure folie et il ne se serait jamais abaissé à la contrôler. Aujourd’hui, une hypothèse ne nous paraîtra plus absurde, parce qu’elle nous oblige à imaginer des objets beaucoup plus grands ou beaucoup plus petits que ceux que nos sens sont capables de nous montrer, et nous ne comprenons plus ces scrupules qui arrêtaient nos devanciers et les empêchaient de découvrir certaines vérités simplement parce qu’ils en avaient peur. Mais pourquoi ? c’est parce que nous avons vu le Ciel s’agrandir et s’agrandir sans cesse ; parce que nous savons que le Soleil est à 150 millions de kilomètres de la Terre et que les distances des étoiles les plus rapprochées sont des centaines de mille fois plus grandes encore. Habitués à contempler l’infiniment grand, nous sommes devenus aptes à comprendre l’infiniment petit. Grâce à l’éducation qu’elle a reçue, notre imagination, comme l’œil de l’aigle que le Soleil n’éblouit pas, peut regarder la vérité face à face. Avais-je tort de dire que c’est l’Astronomie qui nous a fait une âme capable de comprendre la Nature ; que, sous un ciel toujours nébuleux et privé d’astres, la Terre elle-même eût été pour nous éternellement inintelligible ; que nous n’y aurions vu que le caprice et le désordre, et que, ne connaissant pas le monde, nous n’aurions pu l’asservir ? Quelle science eût pu être plus utile ? Et en parlant ainsi je me place au point de vue de ceux qui n’estiment que les applications pratiques. Certes, ce point de vue n’est pas le mien ; moi, au contraire, si j’admire les conquêtes de l’industrie, c’est surtout parce qu’en nous affranchissant des soucis matériels, elles donneront un jour à tous le loisir de contempler la Nature ; je ne dis pas : la Science est utile, parce qu’elle nous apprend à construire des machines ; je dis : les machines sont utiles, parce qu’en travaillant pour nous, elles nous laisseront un jour plus de temps pour faire de la science. Mais enfin il n’est pas indifférent de remarquer qu’entre les deux points de vue il n’y a pas de désaccord, et que l’homme ayant poursuivi un but désintéressé, tout le reste lui est venu par surcroît. Auguste Comte a dit, je ne sais où, qu’il serait vain de chercher à connaître la composition du Soleil, parce que cette connaissance ne pourrait être d’aucune utilité pour la Sociologie. Comment a-t-il pu avoir la vue si courte ? Ne venons-nous pas de voir que c’est par l’Astronomie que, pour parler son langage, l’humanité est passée de l’état théologique à l’état positif. Cela, il s’en est rendu compte, parce que c’était fait. Mais comment n’a-t-il pas compris que ce qui restait à faire n’était pas moins considérable et ne serait pas moins profitable ? L’Astronomie physique, qu’il semble condamner, a déjà commencé à nous donner des fruits, et elle nous en donnera bien d’autres, car elle ne date que d’hier. Tout d’abord, on a reconnu la nature du Soleil, que le fondateur du positivisme voulait nous interdire, et on y a trouvé des corps qui existent sur la Terre et qui y étaient restés inaperçus ; par exemple, l’hélium, ce gaz presque aussi léger que l’hydrogène. C’était déjà pour Comte un premier démenti. Mais à la spectroscopie, nous devons un enseignement bien autrement précieux ; dans les étoiles les plus lointaines, elle nous montre les mêmes substances ; on aurait pu se demander si les éléments terrestres n’étaient pas dus à quelque hasard qui aurait rapproché des atomes plus ténus pour en construire l’édifice plus complexe que les chimistes nomment atome ; si, dans d’autres régions de l’univers, d’autres rencontres fortuites n’avaient pas pu engendrer des édifices entièrement différents. Nous savons maintenant qu’il n’en est rien, que les lois de notre chimie sont des lois générales de la Nature et qu’elles ne doivent rien au hasard qui nous a fait naître sur la Terre. Mais, dira-t-on, l’Astronomie a donné aux autres sciences tout ce qu’elle pouvait leur donner, et maintenant que le Ciel nous a procuré les instruments qui nous permettent d’étudier la nature terrestre, il pourrait, sans danger se voiler pour toujours. Après ce que nous venons de dire, est-il besoin de répondre à cette objection ? On aurait pu raisonner de même du temps de Ptolémée ; alors aussi, on croyait tout savoir, et on avait encore presque tout à apprendre. Les astres sont des laboratoires grandioses, des creusets gigantesques, comme aucun chimiste ne pourrait en rêver. Il y règne des températures qu’il nous est impossible de réaliser. Leur seul défaut, c’est d’être un peu loin ; mais le télescope va les rapprocher de nous, et alors nous verrons comment la matière s’y comporte. Quelle bonne fortune pour le physicien et le chimiste ! La matière s’y montrera à nous sous mille états divers, depuis ces gaz raréfiés qui semblent former les nébuleuses et qui s’illuminent de je ne sais quelle lueur d’origine mystérieuse, jusqu’aux étoiles incandescentes et aux planètes si voisines et pourtant si différentes de nous. Peut-être même les astres nous apprendront-ils un jour quelque chose sur la vie ; cela semble un rêve insensé, et je ne vois pas du tout comment il pourrait se réaliser ; mais, il y a cent ans, la chimie des astres n’aurait-elle pas paru aussi un rêve insensé ? Mais bornons nos regards à des horizons moins lointains, il nous restera encore des promesses moins aléatoires et bien assez séduisantes. Si le passé nous a beaucoup donné, nous pouvons être assurés que l’avenir nous donnera plus encore. En résumé, on ne saurait croire combien la croyance à l’Astrologie a été utile à l’humanité. Si Képler et Tycho-Brahé ont pu vivre, c’est parce qu’ils vendaient à des rois naïfs des prédictions fondées sur les conjonctions des astres. Si ces princes n’avaient pas été si crédules, nous continuerions peut- être à croire que la Nature obéit au caprice, et nous croupirions encore dans l’ignorance.      CHAPITRE VII L’Histoire de la Physique mathématique Le Passé et l’Avenir de la Physique — Quel est l’état actuel de la Physique Mathématique ? Quels sont les problèmes qu’elle est amenée à se poser ? Quel est son avenir ? Son orientation est-elle sur le point de se modifier ? Le but et les méthodes de cette science vont-ils apparaître dans dix ans à nos successeurs immédiats sous le même jour qu’à nous-mêmes ; ou au contraire allons-nous assister à une transformation profonde ? Telles sont les questions que nous sommes forcés de soulever, en abordant aujourd’hui notre enquête. S’il est facile de les poser, il est difficile d’y répondre. Si nous nous sentions tentés de risquer un pronostic, nous résisterions aisément à cette tentation en songeant à toutes les sottises qu’auraient dites les savants les plus éminents d’il y a cent ans, si on leur avait demandé ce que serait la science au XIX e siècle. Ils auraient cru être hardis dans leurs prédictions, et combien, après l’événement, nous les trouverions timides. N’attendez donc de moi aucune prophétie. Mais si, comme tous les médecins prudents, je répugne à donner un pronostic, je ne puis pourtant me dispenser d’un petit diagnostic ; eh bien, oui, il y a des indices d’une crise sérieuse, comme si nous devions nous attendre à une transformation prochaine. Ne soyons pas toutefois trop inquiets. Nous sommes assurés que la malade n’en mourra pas et même nous pouvons espérer que cette crise sera salutaire, car l’histoire du passé semble nous le garantir. Cette crise en effet n’est pas la première et il importe, pour la comprendre, de se rappeler celles qui l’ont précédée. Pardonnez-moi donc un court historique.   La Physique des forces centrales. — La Physique Mathématique, nous le savons, est née de la Mécanique céleste qui l’a engendrée à la fin du XVIII e siècle, au moment où elle venait elle-même d’atteindre son complet développement. Dans ses premières années surtout, l’enfant ressemblait à sa mère d’une manière frappante. L’Univers astronomique est formé de masses, très grandes sans doute, mais séparées par des distances tellement immenses qu’elles ne nous apparaissent que comme des points matériels ; ces points s’attirent en raison inverse du carré des distances et cette attraction est la seule force qui influe sur leurs mouvements. Mais si nos sens étaient assez subtils pour nous montrer tous les détails des corps qu’étudie le physicien, le spectacle que nous y découvririons différerait à peine de celui que contemple l’astronome. Là aussi nous verrions des points matériels séparés les uns des autres par des intervalles énormes par rapport à leurs dimensions et décrivant des orbites suivant des lois régulières. Ces astres infiniment petits, ce sont les atomes. Comme les astres proprement dits, ils s’attirent ou se repoussent, et cette attraction ou cette répulsion, dirigée suivant la droite qui les joint, ne dépend que de la distance. La loi suivant laquelle cette force varie en fonction de la distance n’est peut-être pas la loi de Newton, mais c’est une loi analogue ; au lieu de l’exposant –2, nous avons probablement un exposant différent, et c’est de ce changement d’exposant que sort tout la diversité des phénomènes physiques, la variété des qualités et des sensations, tout le monde coloré et sonore qui nous entoure, toute la Nature en un mot. Telle est la conception primitive dans toute sa pureté. Il ne reste plus qu’à chercher dans les différents cas quelle valeur il convient de donner à cet exposant afin de rendre compte de tous les faits. C’est sur ce modèle que Laplace, par exemple, a construit sa belle théorie de la Capillarité ; il ne la regarde que comme un cas particulier de l’attraction, ou, comme il dit, de la pesanteur universelle, et personne ne s’étonne de la trouver au milieu de l’un des cinq volumes de la Mécanique Céleste. Plus récemment, Briot croit avoir pénétré le dernier secret de l’Optique quand il a démontré que les atomes d’éther s’attirent en raison inverse de la 6 e puissance de la distance ; et Maxwell, Maxwell lui-même, ne dit-il pas quelque part que les atomes des gaz se repoussent en raison inverse de la 5 e puissance de la distance. Nous avons l’exposant –6, ou –5 au lieu de l’exposant –2, mais c’est toujours un exposant. Parmi les théories de cette époque, une seule fait exception, celle de Fourier, pour la propagation de la chaleur ; il y a bien des atomes, agissant à distance, l’un sur l’autre ; ils s’envoient mutuellement de la chaleur, mais ils ne s’attirent pas, ils ne bougent pas. À ce point de vue, la théorie de Fourier devait apparaître aux yeux de ses contemporains, à ceux de Fourier lui- même, comme imparfaite et provisoire. Cette conception n’était pas sans grandeur ; elle était séduisante, et beaucoup d’entre nous n’y ont pas définitivement renoncé ; ils savent qu’on n’atteindra les éléments ultimes des choses qu’en débrouillant patiemment l’écheveau compliqué que nous donnent nos sens ; qu’il faut avancer pas à pas en ne négligeant aucun intermédiaire, que nos pères ont eu tort de vouloir brûler les étapes, mais ils croient que quand on arrivera à ces éléments ultimes, on y retrouvera la simplicité majestueuse de la Mécanique Céleste. Cette conception n’a pas non plus été inutile ; elle nous a rendu un service inappréciable, puisqu’elle a contribué à préciser en nous la notion fondamentale de la loi physique. Je m’explique ; comment les anciens comprenaient-ils la Loi ? C’était pour eux une harmonie interne, statique pour ainsi dire et immuable ; ou bien c’était comme un modèle que la nature s’efforçait d’imiter. Une loi, pour nous, ce n’est plus cela du tout ; c’est une relation constante entre le phénomène d’aujourd’hui et celui de demain ; en un mot, c’est une équation différentielle. Voilà la forme idéale de la loi physique ; eh bien, c’est la loi de Newton qui l’a revêtue la première. Si ensuite on a acclimaté cette forme en physique, c’est précisément en copiant autant que possible cette loi de Newton, c’est en imitant la Mécanique Céleste. C’est là, d’ailleurs, l’idée que je me suis efforcé de faire ressortir au chapitre VI.   La Physique des principes. — Néanmoins, il est arrivé un jour où la conception des forces centrales n’a plus paru suffisante, et c’est la première de ces crises dont je vous parlais tout à l’heure. Que fit-on alors ? On renonça à pénétrer dans le détail de la structure de l’univers, à isoler les pièces de ce vaste mécanisme, à analyser une à une les forces qui les mettent en branle et on se contenta de prendre pour guides certains principes généraux qui ont précisément pour objet de nous dispenser de cette étude minutieuse. Comment cela ? Supposons que nous ayons en face de nous une machine quelconque ; le rouage initial et le rouage final sont seuls apparents, mais les transmissions, les rouages intermédiaires par lesquels le mouvement se communique de l’un à l’autre sont cachés à l’intérieur et échappent à notre vue ; nous ignorons si la communication se fait par des engrenages ou par des courroies, par des bielles ou par d’autres dispositifs. Dirons-nous qu’il nous est impossible de rien comprendre à cette machine tant qu’on ne nous permettra pas de la démonter ? Vous savez bien que non et que le principe de la conservation de l’énergie suffit pour nous fixer sur le point le plus intéressant ; nous constatons aisément que la roue finale tourne dix fois moins vite que la roue initiale, puisque ces deux roues sont visibles ; nous pouvons en conclure qu’un couple appliqué à la première fera équilibre à un couple dix fois plus grand appliqué à la seconde. Point n’est besoin pour cela de pénétrer le mécanisme de cet équilibre et de savoir comment les forces se compenseront à l’intérieur de la machine ; c’est assez de s’assurer que cette compensation ne peut pas ne pas se produire. Eh bien, en présence de l’univers, le principe de la conservation de l’énergie peut nous rendre le même service. C’est aussi une machine beaucoup plus compliquée que toutes celles de l’industrie, et dont presque toutes les parties nous sont profondément cachées ; mais en observant le mouvement de celles que nous pouvons voir, nous pouvons, en nous aidant de ce principe, tirer des conclusions qui resteront vraies quels que soient les détails du mécanisme invisible qui les anime. Le principe de la conservation de l’énergie, ou principe de Mayer, est certainement le plus important, mais ce n’est pas le seul, il y en a d’autres dont nous pouvons tirer le même parti. Ce sont : Le principe de Carnot, ou principe de la dégradation de l’énergie ; Le principe de Newton, ou principe de l’égalité de l’action et de la réaction ; Le principe de la relativité, d’après lequel les lois des phénomènes physiques doivent être les mêmes, soit pour un observateur fixe, soit pour un observateur entraîné dans un mouvement de translation uniforme ; de sorte que nous n’avons et ne pouvons avoir aucun moyen de discerner si nous sommes, oui ou non, emportés dans un pareil mouvement ; Le principe de la conservation de la masse, ou principe de Lavoisier ; J’ajouterai le principe de moindre action. L’application de ces cinq ou six principes généraux aux différents phénomènes physiques suffit pour nous en apprendre ce que nous pouvons raisonnablement espérer en connaître. Le plus remarquable exemple de cette nouvelle Physique Mathématique est sans contredit la théorie électromagnétique de la Lumière de Maxwell. Qu’est-ce que l’éther, comment sont disposées ses molécules, s’attirent-elles ou se repoussent- elles ? nous n’en savons rien ; mais nous savons que ce milieu transmet à la fois les perturbations optiques et les perturbations électriques ; nous savons que cette transmission doit se faire conformément aux principes généraux de la Mécanique et cela nous suffit pour établir les équations du champ électromagnétique. Ces principes sont des résultats d’expériences fortement généralisés ; mais ils semblent emprunter à leur généralité même un degré éminent de certitude. Plus ils sont généraux, en effet, plus on a fréquemment l’occasion de les contrôler et les vérifications, en se multipliant, en prenant les formes les plus variées et les plus inattendues, finissent par ne plus laisser de place au doute.   Utilité de l’ancienne Physique. — Telle est la seconde phase de l’histoire de la Physique Mathématique et nous n’en sommes pas encore sortis. Dirons-nous que la première a été inutile, que pendant cinquante ans la science a fait fausse route et qu’il n’y a plus qu’à oublier tant d’efforts accumulés qu’une conception vicieuse condamnait d’avance à l’insuccès ? Pas le moins du monde. Croyez-vous que la seconde phase aurait pu exister sans la première ? L’hypothèse des forces centrales contenait tous les principes ; elle les entraînait comme des conséquences nécessaires ; elle entraînait et la conservation de l’énergie, et celle des masses, et l’égalité de l’action et de la réaction, et la loi de moindre action, qui apparaissaient, il est vrai, non comme des vérités expérimentales, mais comme des théorèmes ; et dont l’énoncé avait en même temps je ne sais quoi de plus précis et de moins général que sous leur forme actuelle. C’est la Physique Mathématique de nos pères qui nous a familiarisés peu à peu avec ces divers principes, qui nous a habitués à les reconnaître sous les différents vêtements dont ils se déguisent. On les a comparés aux données de l’expérience, on a vu comment il fallait en modifier l’énoncé pour les adapter à ces données ; par là on les a élargis et consolidés. On a été conduit ainsi à les regarder comme des vérités expérimentales ; la conception des forces centrales devenait alors un soutien inutile, ou plutôt une gêne, puisqu’elle faisait participer les principes de son caractère hypothétique. Les cadres ne se sont donc pas brisés parce qu’ils étaient élastiques ; mais ils se sont élargis ; nos pères, qui les avaient établis, n’avaient pas travaillé en vain ; et nous reconnaissons dans la science d’aujourd’hui les traits généraux de l’esquisse qu’ils avaient tracée.     CHAPITRE VIII La Crise actuelle de la Physique mathématique La crise nouvelle. — Allons-nous entrer maintenant dans une troisième phase ? Sommes-nous à la veille d’une seconde crise ? Ces principes sur lesquels nous avons tout bâti vont-ils s’écrouler à leur tour ? Depuis quelque temps, on peut se le demander. En m’entendant parler ainsi, vous pensez sans doute au radium, ce grand révolutionnaire des temps présents, et en effet je vais y revenir tout à l’heure ; mais il y a autre chose ; ce n’est pas seulement la conservation de l’énergie qui est en cause ; tous les autres principes sont également en danger, comme nous allons le voir en les passant successivement en revue.   Le principe de Carnot. — Commençons par le principe de Carnot. C’est le seul qui ne se présente pas comme une conséquence immédiate de l’hypothèse des forces centrales ; bien mieux, il semble sinon contredire directement cette hypothèse, du moins ne pas se concilier avec elle sans un certain effort. Si les phénomènes physiques étaient dus exclusivement aux mouvements d’atomes dont les attractions mutuelles ne dépendraient que de la distance, il semble que tous ces phénomènes devraient être réversibles ; si toutes les vitesses initiales étaient renversées, ces atomes toujours soumis aux mêmes forces devraient parcourir leurs trajectoires en sens contraire, de même que la terre décrirait dans le sens rétrograde cette même orbite elliptique qu’elle décrit dans le sens direct, si les conditions initiales de son mouvement avaient été renversées. À ce compte, si un phénomène physique est possible, le phénomène inverse doit l’être également et on doit pouvoir remonter le cours du temps. Or, il n’en est pas ainsi dans la Nature, et c’est précisément ce que le principe de Carnot nous enseigne, la chaleur peut passer du corps chaud sur le corps froid, et il est impossible ensuite de lui faire reprendre le chemin inverse et de rétablir des différences de température qui se sont effacées. Le mouvement peut être intégralement dissipé et transformé en chaleur par le frottement ; la transformation contraire ne pourra jamais se faire que d’une manière partielle. On s’est efforcé de concilier cette apparente contradiction. Si le monde tend vers l’uniformité, ce n’est pas parce que ses parties ultimes, d’abord dissemblables, tendent à devenir de moins en moins différentes, c’est parce que, se déplaçant au hasard, elles finissent par se mélanger. Pour un œil qui distinguerait tous les éléments, la variété resterait toujours aussi grande ; chaque grain de cette poussière conserve son originalité et ne se modèle pas sur ses voisins ; mais comme le mélange devient de plus en plus intime, nos sens grossiers n’aperçoivent plus que l’uniformité. Voilà pourquoi, par exemple, les températures tendent à se niveler sans qu’il soit possible de revenir en arrière. Qu’une goutte de vin tombe dans un verre d’eau ; quelle que soit la loi du mouvement interne du liquide, nous le verrons bientôt se colorer d’une teinte rosée uniforme et à partir de ce moment on aura beau agiter le vase, le vin et l’eau ne paraîtront plus pouvoir se séparer. Ainsi voici quel serait le type du phénomène physique irréversible : cacher un grain d’orge dans un tas de blé, c’est facile ; l’y retrouver ensuite et l’en faire sortir, c’est pratiquement impossible. Tout cela, Maxwell et Boltzmann l’ont expliqué, mais celui qui l’a vu le plus nettement, dans un livre trop peu lu parce qu’il est un peu difficile à lire, c’est Gibbs, dans ses principes de Mécanique Statistique. Pour ceux qui se placent à ce point de vue, le principe de Carnot n’est qu’un principe imparfait, une sorte de concession à l’infirmité de nos sens ; c’est parce que nos yeux sont trop grossiers que nous ne distinguons pas les éléments du mélange ; c’est parce que nos mains sont trop grossières que nous ne savons pas les forcer à se séparer ; le démon imaginaire de Maxwell, qui peut trier les molécules une à une, saurait bien contraindre le monde à revenir en arrière. Y peut-il revenir de lui-même, cela n’est pas impossible, cela n’est qu’infiniment peu probable ; il y a des chances pour que nous attendions longtemps le concours des circonstances qui permettraient une rétrogradation ; mais, tôt ou tard, elles se réaliseront, après des années dont il faudrait des millions de chiffres pour écrire le nombre. Ces réserves, cependant, restaient tous théoriques, elles n’étaient pas bien inquiétantes, et le principe de Carnot conservait toute sa valeur pratique. Mais voici que la scène change. Le biologiste, armé de son microscope, a remarqué il y a longtemps dans ses préparations des mouvements désordonnés des petites particules en suspension ; c’est le mouvement brownien. Il a cru d’abord que c’était un phénomène vital, mais il a vu bientôt que les corps inanimés ne dansaient pas avec moins d’ardeur que les autres ; il a alors passé la main aux physiciens. Malheureusement, les physiciens se sont longtemps désintéressés de cette question ; on concentre de la lumière pour éclairer la préparation microscopique, pensaient-ils ; la lumière ne va pas sans chaleur, de là des inégalités de température, et dans le liquide des courants intérieurs qui produisent les mouvements dont on nous parle. M. Gouy eut l’idée d’y regarder de plus près et il vit, ou crut voir, que cette explication est insoutenable, que les mouvements deviennent d’autant plus vifs que les particules sont plus petites, mais qu’ils ne sont pas influencés par le mode d’éclairage. Si alors ces mouvements ne cessent pas, ou plutôt renaissent sans cesse, sans rien emprunter à une source extérieure d’énergie ; que devons-nous croire ? Nous ne devons pas, sans doute, renoncer pour cela à la conservation de l’énergie, mais nous voyons sous nos yeux tantôt le mouvement se transformer en chaleur par le frottement, tantôt la chaleur se changer inversement en mouvement, et cela sans que rien ne se perde, puisque le mouvement dure toujours. C’est le contraire du principe de Carnot. S’il en est ainsi, pour voir le monde revenir en arrière, nous n’avons plus besoin de l’œil infiniment subtil du démon de Maxwell, notre microscope nous suffit. Les corps trop gros, ceux qui ont, par exemple, un dixième de millimètre, sont heurtés de tous les côtés par les atomes en mouvement, mais ils ne bougent pas parce que ces chocs sont très nombreux et que la loi du hasard veut qu’ils se compensent ; mais les particules plus petites reçoivent trop peu de chocs pour que cette compensation se fasse à coup sûr et sont incessamment ballottées. Et voilà déjà l’un de nos principes en péril.   Le principe de relativité. — Venons au principe de relativité ; celui-là non seulement est confirmé par l’expérience quotidienne, non seulement il est une conséquence nécessaire de l’hypothèse des forces centrales, mais il s’impose à notre bon sens d’une façon irrésistible ; et pourtant lui aussi est battu en brèche. Supposons deux corps électrisés ; bien qu’ils nous semblent en repos, ils sont l’un et l’autre entraînés par le mouvement de la Terre ; une charge électrique en mouvement, Rowland nous l’a appris, équivaut à un courant ; ces deux corps chargés équivaudront donc à deux courants parallèles et de même sens et ces deux courants devront s’attirer. En mesurant cette attraction, nous mesurerons la vitesse de la Terre ; non pas sa vitesse par rapport au Soleil ou aux Étoiles fixes, mais sa vitesse absolue. Je sais bien ce qu’on va dire, ce n’est pas sa vitesse absolue que l’on mesure, c’est sa vitesse par rapport à l’éther. Que cela est peu satisfaisant ! Ne voit-on pas que du principe ainsi compris on ne pourra plus rien tirer ? Il ne pourrait plus rien nous apprendre justement parce qu’il ne craindrait plus aucun démenti. Si nous parvenons à mesurer quelque chose, nous serons toujours libres de dire que ce n’est pas la vitesse absolue, et si ce n’est pas la vitesse par rapport à l’éther, cela pourra toujours être la vitesse par rapport à quelque nouveau fluide inconnu dont nous remplirions l’espace. Aussi bien l’expérience s’est chargée de ruiner cette interprétation du principe de relativité ; toutes les tentatives pour mesurer la vitesse de la Terre par rapport à l’éther ont abouti à des résultats négatifs. Cette fois la physique expérimentale a été plus fidèle aux principes que la Physique Mathématique ; les théoriciens en auraient fait bon marché afin de mettre en concordance leurs autres vues générales ; mais l’expérience s’est obstinée à le confirmer. On a varié les moyens, enfin Michelson a poussé la précision jusqu’à ses dernières limites ; rien n’y a fait. C’est précisément pour expliquer cette obstination que les mathématiciens sont forcés aujourd’hui de déployer toute leur ingéniosité. Leur tâche n’était pas facile, et si Lorentz s’en est tiré, ce n’est qu’en accumulant les hypothèses. L’idée la plus ingénieuse a été celle du temps local. Imaginons deux observateurs qui veulent régler leurs montres par des signaux optiques ; ils échangent des signaux, mais comme ils savent que la transmission de la lumière n’est pas instantanée, ils prennent soin de les croiser. Quand la station B aperçoit le signal de la station A, son horloge ne doit pas marquer la même heure que celle de la station A au moment de l’émission du signal, mais cette heure augmentée d’une constante représentant la durée de la transmission. Supposons, par exemple, que la station A envoie son signal quand son horloge marque l’heure zéro, et que la station B l’aperçoive quand son horloge marque l’heure t. Les horloges sont réglées si le retard égal à t représente la durée de la transmission, et pour le vérifier la station B expédie à son tour un signal quand son horloge marque zéro, la station A doit alors l’apercevoir quand son horloge marque t. Les montres sont alors réglées. Et en effet elles marquent la même heure au même instant physique, mais à une condition, c’est que les deux stations soient fixes. Dans le cas contraire, la durée de la transmission ne sera pas la même dans les deux sens, puisque la station A par exemple marche au devant de la perturbation optique émanée de B, tandis que la station B fuit devant la perturbation émanée de A. Les montres réglées de la sorte ne marqueront donc pas le temps vrai, elles marqueront ce qu’on peut appeler le temps local, de sorte que l’une d’elles retardera sur l’autre. Peu importe, puisque nous n’avons aucun moyen de nous en apercevoir. Tous les phénomènes qui se produiront en A par exemple seront en retard, mais tous le seront également, et l’observateur ne s’en apercevra pas puisque sa montre retarde ; ainsi, comme le veut le principe de relativité, il n’aura aucun moyen de savoir s’il est en repos ou en mouvement absolu. Cela malheureusement ne suffit pas, et il faut des hypothèses complémentaires ; il faut admettre que les corps en mouvement subissent une contraction uniforme dans le sens du mouvement. L’un des diamètres de la Terre par exemple est raccourci de par suite du mouvement de notre planète, tandis que l’autre diamètre conserve sa longueur normale. Ainsi se trouvent compensées les dernières petites différences. Et puis il y a encore l’hypothèse sur les forces. Les forces, quelle que soit leur origine, la pesanteur comme l’élasticité, seraient réduites dans une certaine proportion, dans un monde animé d’une translation uniforme, ou plutôt c’est ce qui arriverait pour les composantes perpendiculaires à la translation : les composantes parallèles ne changeraient pas. Reprenons alors notre exemple de deux corps électrisés ; ces corps se repoussent, mais en même temps, si tout est entraîné dans une translation uniforme, ils équivalent à deux courants parallèles et de même sens qui s’attirent. Cette attraction électrodynamique se retranche donc de la répulsion électrostatique et la répulsion totale est plus faible que si les deux corps étaient en repos. Mais comme, pour mesurer cette répulsion, nous devons l’équilibrer par une autre force, et que toutes ces autres forces sont réduites dans la même proportion, nous ne nous apercevons de rien. Tout semble ainsi arrangé, mais tous les doutes sont-ils dissipés ? Qu’arriverait-il si on pouvait communiquer par des signaux qui ne seraient plus lumineux et dont la vitesse de propagation différerait de celle de la lumière ? Si, après avoir réglé les montres par le procédé optique, on voulait vérifier le réglage à l’aide de ces nouveaux signaux, on constaterait des divergences qui mettraient en évidence la translation commune des deux stations. Et de pareils signaux sont-ils inconcevables, si l’on admet avec Laplace que la gravitation universelle se transmet un million de fois plus vite que la lumière ? Ainsi le principe de relativité a été dans ces derniers temps vaillamment défendu, mais l’énergie même de la défense prouve combien l’attaque était sérieuse.   Le principe de Newton. — Parlons maintenant du principe de Newton, sur l’égalité de l’action et de la réaction. Celui-ci est intimement lié au précédent et il semble bien que la chute de l’un entraînerait celle de l’autre. Aussi ne devons-nous pas nous étonner de retrouver ici les mêmes difficultés. J’ai déjà montré plus haut que les nouvelles théories faisaient bon marché de ce principe. Les phénomènes électriques, d’après la théorie de Lorentz, sont dus aux déplacements de petites particules chargées appelées électrons et plongées dans le milieu que nous nommons éther. Les mouvements de ces électrons produisent des perturbations dans l’éther avoisinant ; ces perturbations se propagent dans tous les sens avec la vitesse de la lumière, et à leur tour d’autres électrons, primitivement en repos, se trouvent ébranlés quand la perturbation atteint les parties de l’éther qui les touchent. Les électrons agissent donc les uns sur les autres, mais cette action n’est pas directe, elle se fait par l’intermédiaire de l’éther. Dans ces conditions peut-il y avoir compensation entre l’action et la réaction, du moins pour un observateur qui ne tiendrait compte que des mouvements de la matière, c’est-à-dire des électrons, et qui ignorerait ceux de l’éther qu’il ne peut pas voir ? Évidemment non. Quand même la compensation serait exacte elle ne saurait être simultanée. La perturbation se propage avec une vitesse finie ; elle n’atteint donc le second électron que quand le premier est depuis longtemps rentré dans le repos. Ce second électron subira donc, avec un retard, l’action du premier, mais certainement à ce moment il ne réagira pas sur lui puisqu’autour de ce premier électron rien ne bouge plus. L’analyse des faits va nous permettre de préciser davantage. Imaginons, par exemple, un excitateur de Hertz comme ceux que l’on emploie en télégraphie sans fil ? il envoie de l’énergie dans tous les sens ; mais nous pouvons le munir d’un miroir parabolique, comme l’a fait Hertz avec ses plus petits excitateurs, afin de renvoyer toute l’énergie produite dans une seule direction. Qu’arrive-t-il alors, d’après la théorie ? c’est que l’appareil va reculer, comme s’il était un canon et si l’énergie qu’il a projetée était un boulet, et cela est contraire au principe de Newton, puisque notre projectile ici n’a pas de masse, ce n’est pas de la matière, c’est de l’énergie. Il en est encore de même d’ailleurs avec un phare pourvu d’un réflecteur puisque la lumière n’est autre chose qu’une perturbation du champ électromagnétique. Ce phare devra reculer comme si la lumière qu’il envoie était un projectile. Quelle est la force qui doit produire ce recul ? c’est ce qu’on a appelé la pression Maxwell-Bartholdi ; elle est très petite et on a eu bien du mal à la mettre en évidence avec les radiomètres les plus sensibles ; mais il suffit qu’elle existe. Si toute l’énergie issue de notre excitateur va tomber sur un récepteur, celui-ci se comportera comme s’il avait reçu un choc mécanique, qui représentera en un sens la compensation du recul de l’excitateur ; la réaction sera égale à l’action, mais elle ne sera pas simultanée, le récepteur avancera, mais pas au moment où l’excitateur reculera. Si l’énergie se propage indéfiniment sans rencontrer de récepteur, la compensation ne se fera jamais. Dira-t-on que l’espace qui sépare l’excitateur du récepteur et que la perturbation doit parcourir pour aller de l’un à l’autre n’est pas vide, qu’il est rempli, non seulement d’éther, mais d’air, ou même, dans les espaces interplanétaires, de quelque fluide subtil, mais encore pondérable ; que cette matière subit le choc comme le récepteur au moment où l’énergie l’atteint et recule à son tour quand la perturbation la quitte ? Cela sauverait le principe de Newton, mais cela n’est pas vrai ; si l’énergie en se propageant restait toujours attachée à quelque substratum matériel, la matière en mouvement entraînerait la lumière avec elle et Fizeau a démontré qu’il n’en est rien, au moins pour l’air. C’est ce que Michelson et Morley ont confirmé depuis. On peut supposer aussi que les mouvements de la matière proprement dite sont exactement compensés par ceux de l’éther, mais cela nous amènerait aux mêmes réflexions que tout à l’heure. Le principe ainsi entendu pourra tout expliquer, puisque, quels que soient les mouvements visibles, on aura toujours la faculté d’imaginer des mouvements hypothétiques qui les compensent. Mais s’il peut tout expliquer, c’est qu’il ne nous permet de rien prévoir, il ne nous permet pas de choisir entre les différentes hypothèses possibles, puisqu’il explique tout d’avance. Il devient donc inutile. Et puis les suppositions qu’il faudrait faire sur les mouvements de l’éther ne sont pas très satisfaisantes. Si les charges électriques doublent, il serait naturel d’imaginer que les vitesses des divers atomes d’éther doublent aussi, et, pour la compensation, il faut que la vitesse moyenne de l’éther quadruple. C’est pourquoi j’ai longtemps pensé que ces conséquences de la théorie, contraires au principe de Newton, finiraient un jour par être abandonnées et pourtant les expériences récentes sur les mouvements des électrons issus du radium semblent plutôt les confirmer.   Le principe de Lavoisier. — J’arrive au principe de Lavoisier sur la conservation des masses. Certes, c’en est un auquel on ne saurait toucher sans ébranler la mécanique. Et maintenant certaines personnes pensent qu’il ne nous paraît vrai que parce qu’on ne considère en mécanique que des vitesses modérées, mais qu’il cesserait de l’être pour des corps animés de vitesses comparables à celle de la lumière. Or, ces vitesses, on croit maintenant les avoir réalisées ; les rayons cathodiques et ceux du radium seraient formés de particules très petites ou d’électrons qui se déplaceraient avec des vitesses, plus petites sans doute que celle de la lumière, mais qui en seraient le dixième ou le tiers. Ces rayons peuvent être déviés soit par un champ électrique, soit par un champ magnétique, et on peut, en comparant ces déviations, mesurer à la fois la vitesse des électrons et leur masse (ou plutôt le rapport de leur masse à leur charge). Mais quand on a vu que ces vitesses se rapprochaient de celle de la lumière, on s’est avisé qu’une correction était nécessaire. Ces molécules, étant électrisées, ne peuvent se déplacer sans ébranler l’éther ; pour les mettre en mouvement, il faut triompher d’une double inertie, de celle de la molécule elle-même et de celle de l’éther. La masse totale ou apparente que l’on mesure se compose donc de deux parties : la masse réelle ou mécanique de la molécule, et la masse électrodynamique représentant l’inertie de l’éther. Les calculs d’Abraham et les expériences de Kauffman ont alors montré que la masse mécanique proprement dite est nulle et que la masse des électrons, ou au moins des électrons négatifs, est d’origine exclusivement électrodynamique. Voilà qui nous force à changer la définition de la masse ; nous ne pouvons plus distinguer la masse mécanique et la masse électrodynamique, parce qu’alors la première s’évanouirait ; il n’y a pas d’autre masse que l’inertie électrodynamique ; mais dans ce cas la masse ne peut plus être constante, elle augmente avec la vitesse ; et même, elle dépend de la direction, et un corps animé d’une vitesse notable n’opposera pas la même inertie aux forces qui tendent à le dévier de sa route, et à celles qui tendent à accélérer ou à retarder sa marche. Il y a bien encore une ressource : les éléments ultimes des corps sont des électrons, les uns chargés négativement, les autres chargés positivement. Les électrons négatifs n’ont pas de masse, c’est entendu ; mais les électrons positifs, d’après le peu qu’on en sait, semblent beaucoup plus gros. Peut- être ont-ils, outre leur masse électrodynamique, une vraie masse mécanique. La véritable masse d’un corps, ce serait alors la somme des masses mécaniques de ses électrons positifs, les électrons négatifs ne compteraient pas ; la masse ainsi définie pourrait encore être constante. Hélas ! cette ressource aussi nous échappe. Rappelons-nous ce que nous avons dit au sujet du principe de relativité et des efforts faits pour la sauver. Et ce n’est pas seulement un principe qu’il s’agit de sauver, ce sont les résultats indubitables des expériences de Michelson. Eh bien, ainsi que nous l’avons vu plus haut, pour rendre compte de ces résultats, Lorentz a été obligé de supposer que toutes les forces, quelle que soit leur origine, étaient réduites dans la même proportion dans un milieu animé d’une translation uniforme ; ce n’est pas assez, il ne suffit pas que cela ait lieu pour les forces réelles, il faut encore qu’il en soit de même pour les forces d’inertie ; il faut donc, dit-il, que les masses de toutes les particules soient influencées par une translation au même degré que les masses électromagnétiques des électrons. Ainsi les masses mécaniques doivent varier d’après les mêmes lois que les masses électrodynamiques ; elles ne peuvent donc pas être constantes. Ai-je besoin de faire observer que la chute du principe de Lavoisier entraîne celle du principe de Newton. Ce dernier signifie que le centre de gravité d’un système isolé se meut en ligne droite ; mais s’il n’y a plus de masse constante, il n’y a plus de centre de gravité, on ne sait même plus ce que c’est. C’est pourquoi j’ai dit plus haut que les expériences sur les rayons cathodiques avaient paru justifier les doutes de Lorentz au sujet du principe de Newton. De tous ces résultats, s’ils se confirmaient, sortirait une mécanique entièrement nouvelle qui serait surtout caractérisée par ce fait qu’aucune vitesse ne pourrait dépasser celle de la lumière  2 pas plus qu’aucune température ne peut tomber au-dessous du zéro absolu. Pour un observateur, entraîné lui-même dans une translation dont il ne se doute pas, aucune vitesse apparente ne pourrait non plus dépasser celle de la lumière ; et ce serait là une contradiction, si l’on ne se rappelait que cet observateur ne se servirait pas des mêmes horloges qu’un observateur fixe, mais bien d’horloges marquant le « temps local ». Nous voici alors en face d’une question que je me borne à poser. S’il n’y a plus de masse, que devient la loi de Newton ? La masse a deux aspects, c’est à la fois un coefficient d’inertie et une masse attirante entrant comme facteur dans l’attraction newtonienne. Si le coefficient d’inertie n’est pas constant, la masse attirante pourra-t-elle l’être ? Voilà la question.   Le principe de Mayer. — Du moins le principe de la conservation de l’énergie nous restait encore et celui-là paraissait plus solide. Vous rappellerai-je comment il fut à son tour jeté en discrédit ? L’événement a fait plus de bruit que les précédents et il est dans toutes les mémoires. Dès les premiers travaux de Becquerel et surtout quand les Curie eurent découvert le radium, on vit que tout corps radio-actif était une source inépuisable de radiation. Son activité semblait subsister sans altération à travers les mois et les années. C’était déjà là une entorse aux principes ; ces radiations, c’était en effet de l’énergie, et de ce même morceau de radium, il en sortait et il en sortait toujours. Mais ces quantités d’énergie étaient trop faibles pour être mesurées ; du moins on le croyait et on ne s’en inquiétait pas trop. La scène changea lorsque Curie s’avisa de mettre le radium dans un calorimètre ; alors on vit que la quantité de chaleur incessamment créée était très notable. Les explications proposées furent nombreuses ; mais en pareille matière on ne peut pas dire qu’abondance de biens ne nuit pas ; tant que l’une d’elles n’aura pas triomphé des autres, nous ne pourrons pas être sûrs qu’aucune d’entre elles soit bonne. Depuis quelque temps toutefois, une de ces explications semble prendre le dessus et on peut raisonnablement espérer que nous tenons la clef du mystère. Sir W. Ramsay a cherché à montrer que le radium se transforme, qu’il renferme une provision d’énergie énorme, mais non inépuisable. La transformation du radium produirait alors un million de fois plus de chaleur que toutes les transformations connues ; le radium s’épuiserait en 1250 ans ; c’est bien court, mais vous voyez que nous sommes du moins certain d’être fixés sur ce point d’ici quelques centaines d’années. En attendant nos doutes subsistent.      CHAPITRE IX L’Avenir de la Physique mathématique Les principes et l’expérience. — Au milieu de tant de ruines, que reste-t-il debout ? Le principe de moindre action est intact jusqu’ici, et Larmor paraît croire qu’il survivra longtemps aux autres ; il est en effet plus vague et plus général encore. En présence de cette débâcle générale des principes, quelle attitude va prendre la Physique Mathématique ? Et d’abord, avant de trop s’émouvoir il convient de se demander si tout cela est bien vrai. Toutes ces dérogations aux principes, on ne les rencontre que dans les infiniment petits ; il faut le microscope pour voir le mouvement brownien ; les électrons sont bien légers ; le radium est bien rare et on en a jamais que quelques milligrammes à la fois ; et alors on peut se demander si, à côté de l’infiniment petit qu’on a vu, il n’y avait pas un autre infiniment petit qu’on ne voyait pas et qui faisait contrepoids au premier. Il y a donc là une question préjudicielle, et à ce qu’il semble l’expérience seule peut la résoudre. Nous n’aurons donc qu’à passer la main aux expérimentateurs, et en attendant qu’ils aient tranché définitivement le débat, à ne pas nous préoccuper de ces inquiétants problèmes, et à continuer tranquillement notre œuvre comme si les principes étaient encore incontestés. Certes, nous avons beaucoup à faire sans sortir du domaine où on peut les appliquer en toute sûreté ; nous avons de quoi employer notre activité pendant cette période de doutes.   Le rôle de l’analyste. — Et pourtant ces doutes, est-il bien vrai que nous ne puissions rien faire pour en débarrasser la science ? Il faut bien le dire ce n’est pas seulement la physique expérimentale qui les a fait naître, la physique mathématique y a bien contribué pour sa part. Ce sont les expérimentateurs qui ont vu le radium dégager de l’énergie, mais ce sont les théoriciens qui ont mis en évidence toutes les difficultés soulevées par la propagation de la lumière à travers un milieu en mouvement ; sans eux il est probable qu’on ne s’en serait pas avisé. Eh bien, alors, s’ils ont fait de leur mieux pour nous mettre dans l’embarras, il convient aussi qu’ils nous aident à en sortir. Il faut qu’ils soumettent à la critique toutes ces vues nouvelles que je viens d’esquisser devant vous et qu’ils n’abandonnent les principes qu’après avoir fait un effort loyal pour les sauver. Que peuvent-ils faire dans ce sens ? C’est ce que je vais chercher à expliquer. Il s’agit avant tout d’obtenir une théorie plus satisfaisante de l’électrodynamique des corps en mouvement ? C’est là surtout, je l’ai suffisamment montré plus haut, que les difficultés s’accumulent ; on a beau entasser les hypothèses, on ne peut satisfaire à tous les principes à la fois ; on n’a pu réussir jusqu’ici à sauvegarder les uns qu’à la condition de sacrifier les autres ; mais tout espoir d’obtenir de meilleurs résultats n’est pas encore perdu. Prenons donc la théorie de Lorentz, retournons-la dans tous les sens ; modifions-la peu à peu, et tout s’arrangera peut-être. Ainsi au lieu de supposer que les corps en mouvement subissent une contraction dans le sens du mouvement et que cette contraction est la même quelle que soit la nature de ces corps et les forces auxquelles ils sont d’ailleurs soumis, ne pourrait-on pas faire une hypothèse plus simple et plus naturelle ? On pourrait imaginer, par exemple, que c’est l’éther qui se modifie quand il se trouve en mouvement relatif par rapport au milieu matériel qui le pénètre, que, quand il est ainsi modifié, il ne transmet plus les perturbations avec la même vitesse dans tous les sens. Il transmettrait plus rapidement celles qui se propageraient parallèlement au mouvement du milieu, soit dans le même sens, soit dans le sens contraire, et moins rapidement celles qui se propageraient perpendiculairement. Les surfaces d’ondes ne seraient plus des sphères, mais des ellipsoïdes et on pourrait se passer de cette extraordinaire contraction de tous les corps. Je ne cite cela qu’à titre d’exemple, car les modifications que l’on pourrait essayer seraient évidemment susceptibles de varier à l’infini.   L’aberration et l’astronomie. — Il est possible aussi que l’astronomie nous fournisse un jour des données sur ce point ; c’est elle, en somme, qui a soulevé la question en nous faisant connaître le phénomène de l’aberration de la lumière. Si on fait brutalement la théorie de l’aberration on arrive à un résultat bien curieux. Les positions apparentes des étoiles diffèrent de leurs positions réelles, à cause du mouvement de la Terre, et comme ce mouvement est variable, ces positions apparentes varient. La position réelle nous ne pouvons la connaître, mais nous pouvons observer les variations de la position apparente. Les observations de l’aberration nous montrent donc non le mouvement de la Terre, mais les variations de ce mouvement, elles ne peuvent par conséquent nous renseigner sur le mouvement absolu de la Terre. C’est du moins ce qui est vrai en première approximation, mais il n’en serait plus de même si on pouvait apprécier les millièmes de seconde. On verrait alors que l’amplitude de l’oscillation dépend non seulement de la variation du mouvement, variation qui est bien connue, puisque c’est le mouvement de notre globe sur son orbite elliptique, mais de la valeur moyenne de ce mouvement de sorte que la constante de l’aberration ne serait pas tout à fait la même pour toutes les Étoiles, et que les différences nous feraient connaître le mouvement absolu de la Terre dans l’espace. Ce serait là, sous une autre forme, la ruine du principe de relativité. Nous sommes loin, il est vrai, d’apprécier le millième de seconde, mais après tout, disent quelques personnes, la vitesse absolue totale de la Terre est peut-être beaucoup plus grande que sa vitesse relative par rapport au Soleil ; si elle était par exemple de 300 kilomètres par seconde au lieu de 30, cela suffirait pour que le phénomène devînt observable. Je crois qu’en raisonnant ainsi on admet une théorie trop simpliste de l’aberration ; Michelson nous a montré, je vous l’ai dit, que les procédés physiques sont impuissants à mettre en évidence le mouvement absolu ; je suis persuadé qu’il en sera de même des procédés astronomiques quelque loin que l’on pousse la précision. Quoiqu’il en soit, les données que l’Astronomie nous fournira dans ce sens seront un jour précieuses pour le physicien. En attendant, je crois que les théoriciens, se rappelant l’expérience de Michelson, peuvent escompter un résultat négatif, et qu’ils feraient œuvre utile en construisant une théorie de l’aberration qui en rendrait compte d’avance.   Les électrons et les spectres. — Cette dynamique des électrons peut être abordée par bien des côtés, mais parmi les chemins qui y conduisent, il y en a un qui a été quelque peu négligé, et c’est pourtant un de ceux qui nous promettent le plus de surprises. Ce sont les mouvements des électrons qui produisent les raies des spectres d’émission ; ce qui le prouve, c’est le phénomène de Zeeman ; dans un corps incandescent, ce qui vibre est sensible à l’aimant, donc électrisé. C’est là un premier point très important, mais on n’est pas entré plus avant ; pourquoi les raies du spectre sont-elles distribuées d’après une loi régulière ? Ces lois ont été étudiées par les expérimentateurs dans leurs moindres détails ; elles sont très précises et relativement simples. La première étude de ces distributions fait songer aux harmoniques que l’on rencontre en acoustique ; mais la différence est grande ; non seulement les nombres de vibrations ne sont pas les multiples successifs d’un même nombre ; mais nous ne retrouvons même rien d’analogue aux racines de ces équations transcendantes auxquelles nous conduisent tant de problèmes de Physique Mathématique : celui des vibrations d’un corps élastique de forme quelconque, celui des oscillations hertziennes dans un excitateur de forme quelconque, le problème de Fourier pour le refroidissement d’un corps solide. Les lois sont plus simples, mais elles sont de toute autre nature et pour ne citer qu’une de ces différences, pour les harmoniques d’ordre élevé le nombre des vibrations tend vers une limite finie ; au lieu de croître indéfiniment. De cela on n’a pas encore rendu compte, et je crois que c’est là un des plus importants secrets de la nature. Un physicien japonais M. Nagaoka a récemment proposé une explication ; les atomes seraient, d’après lui, formés d’un gros électron positif entouré d’un anneau formé d’un très grand nombre d’électrons négatifs très petits. Telle la planète Saturne avec son anneau. C’est là une tentative fort intéressante, mais pas encore tout à fait satisfaisante ; cette tentative il faudrait la renouveler. Nous pénétrerons pour ainsi dire dans l’intimité de la matière. Et au point de vue particulier qui nous occupe aujourd’hui, quand nous saurons pourquoi les vibrations des corps incandescents diffèrent ainsi des vibrations élastiques ordinaires, pourquoi les électrons ne se comportent pas comme la matière qui nous est familière, nous comprendrons mieux la dynamique des électrons et il nous sera peut-être plus facile de la concilier avec les principes.   Les conventions devant l’expérience. — Supposons maintenant que tous ces efforts échouent, et, tout compte fait, je ne le crois pas ; que faudra- t-il faire ? Faudra-t-il chercher à raccommoder les principes ébréchés, en donnant ce que nous autres Français nous appelons un coup de pouce ? Cela est évidemment toujours possible et je ne retire rien de ce que j’ai dit plus haut. N’avez-vous pas écrit, pourriez-vous me dire si vous vouliez me chercher querelle, n’avez-vous pas écrit que les principes, quoique d’origine expérimentale, sont maintenant hors des atteintes de l’expérience parce qu’ils sont devenus des conventions ? Et maintenant vous venez nous dire que les conquêtes les plus récentes de l’expérience mettent ces principes en danger. Eh bien, j’avais raison autrefois et je n’ai pas tort aujourd’hui. J’avais raison autrefois et ce qui se passe maintenant en est une preuve nouvelle. Prenons par exemple l’expérience calorimétrique de Curie sur le radium. Est-il possible de la concilier avec le principe de la conservation de l’énergie ? On l’a tenté de bien des manières ; mais il y en a une entre autres que je voudrais vous faire remarquer ; ce n’est pas l’explication qui tend aujourd’hui à prévaloir, mais c’est une de celles qui ont été proposées. On a supposé que le radium n’était qu’un intermédiaire, qu’il ne faisait qu’emmagasiner des radiations de nature inconnue qui sillonnaient l’espace dans tous les sens, en traversant tous les corps, sauf le radium, sans être altérées par ce passage et sans exercer sur eux aucune action. Le radium seul leur prendrait un peu de leur énergie et il nous la rendrait ensuite sous diverses formes. Quelle explication avantageuse et combien elle est commode ! D’abord elle est invérifiable et par là même irréfutable. Ensuite elle peut servir pour rendre compte de n’importe quelle dérogation au principe de Mayer ; elle répond d’avance non seulement à l’objection de Curie, mais à toutes les objections que les expérimentateurs futurs pourraient accumuler. Cette énergie nouvelle et inconnue pourra servir à tout. C’est bien ce que j’avais dit, et avec cela on nous montre bien que notre principe est hors des atteintes de l’expérience. Et après, qu’avons-nous gagné à ce coup de pouce ? Le principe est intact, mais à quoi désormais peut-il servir ? Il nous permettait de prévoir que dans telle ou telle circonstance nous pouvions compter sur telle quantité totale d’énergie ; il nous limitait ; mais maintenant qu’on met à notre disposition cette provision indéfinie d’énergie nouvelle, nous ne sommes plus limités par rien ; et, comme je l’ai écrit dans Science et Hypothèse, si un principe cesse d’être fécond, l’expérience, sans le contredire directement, l’aura cependant condamné.   La physique mathématique future. — Ce n’est donc pas cela qu’il faudrait faire ; nous devrions rebâtir à neuf. Si l’on était acculé à cette nécessité, nous pourrions d’ailleurs nous en consoler. Il ne faudrait pas en conclure que la science ne peut faire qu’un travail de Pénélope, qu’elle ne peut élever que des constructions éphémères qu’elle est bientôt forcée de démolir de fond en comble de ses propres mains. Comme je vous l’ai dit, nous avons déjà passé par une crise semblable. Je vous ai montré que, dans la seconde physique mathématique, celle des principes, on retrouve les traces de la première, celle des forces centrales ; il en sera encore de même si nous devons en connaître une troisième. Tel l’animal qui mue, qui brise sa carapace trop étroite et s’en fait une plus jeune ; sous son enveloppe nouvelle, on reconnaîtra aisément les traits essentiels de l’organisme qui ont subsisté. Dans quel sens allons-nous nous étendre, nous ne pouvons le prévoir ; peut-être est-ce la théorie cinétique des gaz qui va prendre du développement et servir de modèle aux autres. Alors les faits qui d’abord nous apparaissaient comme simples ne seraient plus que les résultantes d’un très grand nombre de faits élémentaires que les lois seules du hasard feraient concourir à un même but. La loi physique alors prendrait un aspect entièrement nouveau ; ce ne serait plus seulement une équation différentielle, elle prendrait le caractère d’une loi statistique. Peut-être aussi devrons-nous construire toute une mécanique nouvelle que nous ne faisons qu’entrevoir, où, l’inertie croissant avec la vitesse, la vitesse de la lumière deviendrait une limite infranchissable. La mécanique vulgaire, plus simple, resterait une première approximation puisqu’elle serait vraie pour les vitesses qui ne seraient pas très grandes, de sorte qu’on retrouverait encore l’ancienne dynamique sous la nouvelle. Nous n’aurions pas à regretter d’avoir cru aux principes, et même, comme les vitesses trop grandes pour les anciennes formules ne seraient jamais qu’exceptionnelles, le plus sûr dans la pratique serait encore de faire comme si on continuait à y croire. Ils sont si utiles qu’il faudrait leur conserver une place. Vouloir les exclure tout à fait, ce serait se priver d’une arme précieuse. Je me hâte de dire, pour terminer, que nous n’en sommes pas là et que rien ne prouve encore qu’ils ne sortiront pas de la lutte victorieux et intacts  3 .     TROISIÈME PARTIE LA VALEUR OBJECTIVE DE LA SCIENCE   CHAPITRE X La Science est-elle artificielle ? § 1. LA PHILOSOPHIE DE M. LE ROY Voilà bien des raisons d’être sceptiques ; devons-nous pousser ce scepticisme jusqu’au bout ou nous arrêter en chemin. Aller jusqu’au bout, c’est la solution la plus tentante, la plus commode et c’est celle que bien des personnes ont adoptée, désespérant de rien sauver du naufrage. Parmi les écrits qui s’inspirent de cette tendance il convient de placer en première ligne ceux de M. Le Roy. Ce penseur n’est pas seulement un philosophe et un écrivain du plus grand mérite, mais il a acquis une connaissance approfondie des sciences exactes et des sciences physiques, et même il a fait preuve de précieuses facultés d’invention mathématique. Résumons en quelques mots sa doctrine qui a donné lieu à de nombreuses discussions. La Science n’est faite que de conventions, et c’est uniquement à cette circonstance qu’elle doit son apparente certitude ; les faits scientifiques, et a fortiori, les lois sont l’œuvre artificielle du savant ; la science ne peut donc rien nous apprendre de la vérité, elle ne peut nous servir que de règle d’action. On reconnaît là la théorie philosophique connue sous le nom de nominalisme ; tout n’est pas faux dans cette théorie ; il faut lui réserver son légitime domaine, mais il ne faudrait pas non plus l’en laisser sortir. Ce n’est pas tout, la doctrine de M. Le Roy n’est pas seulement nominaliste ; elle a encore un autre caractère qu’elle doit sans doute à l’influence de M. Bergson, elle est anti-intellectualiste. Pour M. Le Roy, l’intelligence déforme tout ce qu’elle touche, et cela est plus vrai encore de son instrument nécessaire « le discours ». Il n’y a de réalité que dans nos impressions fugitives et changeantes, et cette réalité même, dès qu’on la touche, s’évanouit. Et cependant, M. Le Roy n’est pas un sceptique ; s’il regarde l’intelligence comme irrémédiablement impuissante, ce n’est que pour faire la part plus large à d’autres sources de connaissance, au cœur par exemple, au sentiment, à l’instinct ou à la foi. Quelle que soit mon estime pour le talent de M. Le Roy, quelle que soit l’ingéniosité de cette thèse, je ne saurais l’accepter tout entière. Certes je suis d’accord sur bien des points avec M. Le Roy, et il a même cité, à l’appui de sa manière de voir, divers passages de mes écrits que je ne suis nullement disposé à récuser. Je ne m’en crois que plus tenu d’expliquer pourquoi je ne puis le suivre jusqu’au bout. M. Le Roy se plaint souvent d’être accusé de scepticisme. Il ne pouvait pas ne pas l’être, encore que cette accusation soit probablement injuste. Les apparences ne sont-elles pas contre lui ? Nominaliste de doctrine, mais réaliste de cœur, il semble n’échapper au nominalisme absolu que par un acte de foi désespéré. C’est que la philosophie anti-intellectualiste, en récusant l’analyse et « le discours », se condamne par cela même à être intransmissible, c’est une philosophie essentiellement interne, ou tout au moins ce qui peut s’en transmettre, ce ne sont que les négations ; comment s’étonner alors que pour un observateur extérieur, elle prenne la figure du scepticisme ? C’est là le point faible de cette philosophie ; si elle veut rester fidèle à elle-même, elle épuise sa puissance dans une négation et un cri d’enthousiasme. Cette négation et ce cri, chaque auteur peut les répéter, en varier la forme, mais sans y rien ajouter. Et encore, ne serait-il pas plus conséquent en se taisant ? Voyons, vous avez écrit de longs articles, il a bien fallu pour cela que vous vous serviez de mots. Et par là n’avez-vous pas été beaucoup plus « discursif » et par conséquent beaucoup plus loin de la vie et de la vérité, que l’animal qui vit tout simplement sans philosopher ? Ne serait-ce pas cet animal qui est le véritable philosophe ? Pourtant, de ce qu’aucun peintre n’a pu faire un portrait tout à fait ressemblant, devons-nous conclure que la meilleure peinture soit de ne pas peindre ? Quand un zoologiste dissèque un animal, certainement il « l’altère ». Oui, en le disséquant, il se condamne à n’en jamais tout connaître ; mais en ne le disséquant pas, il se condamnerait à n’en jamais rien connaître et par conséquent à n’en jamais rien dire. Certes il y a dans l’homme d’autres forces que son intelligence, personne n’a jamais été assez fou pour le nier. Ces forces aveugles, le premier venu les fait agir ou les laisse agir ; le philosophe doit en parler ; pour en parler, il doit en connaître le peu qu’on en peut connaître, il doit donc les regarder agir. Comment ? avec quels yeux ? sinon avec son intelligence ? Le cœur, l’instinct, peuvent la guider, mais non la rendre inutile ; ils peuvent diriger le regard, mais non remplacer l’œil. Que le cœur soit l’ouvrier et que l’intelligence ne soit que l’instrument, on peut y consentir. Encore est-ce un instrument dont on ne peut se passer, sinon pour agir, au moins pour philosopher. C’est pour cela qu’une philosophie vraiment anti-intellectualiste est impossible. Peut-être devrons-nous conclure au « primat » de l’action ; toujours est-il que c’est notre intelligence qui conclura ainsi ; en cédant le pas à l’action, elle gardera de la sorte la supériorité du roseau pensant. C’est là aussi un « primat » qui n’est pas à dédaigner. Qu’on me pardonne ces courtes réflexions et qu’on me pardonne aussi de les faire si courtes et d’avoir à peine effleuré la question. Le procès de l’intellectualisme n’est pas le sujet que je veux traiter : je veux parler de la science et pour elle, il n’y a pas de doute ; par définition, pour ainsi dire, elle sera intellectualiste ou elle ne sera pas. Ce qu’il s’agit précisément de savoir, c’est si elle sera. § 2. — LA SCIENCE, RÈGLE D’ACTION Pour M. Le Roy, la science n’est qu’une règle d’action. Nous sommes impuissants à rien connaître et pourtant nous sommes embarqués, il nous faut agir, et à tout hasard, nous nous sommes fixé des règles. C’est l’ensemble de ces règles que l’on appelle la science. C’est ainsi que les hommes, désireux de se divertir, ont institué des règles de jeux, comme celle du tric-trac, par exemple, qui pourraient, mieux que la science elle-même, s’appuyer de la preuve du consentement universel. C’est ainsi également que, hors d’état de choisir, mais forcé de choisir, on jette en l’air une pièce de monnaie pour tirer à pile ou face. La règle du tric-trac est bien une règle d’action comme la science, mais croit-on que la comparaison soit juste et ne voit-on pas la différence ? Les règles du jeu sont des conventions arbitraires et on aurait pu adopter la convention contraire qui n’aurait pas été moins bonne. Au contraire, la Science est une règle d’action qui réussit, au moins généralement et, j’ajoute, tandis que la règle contraire n’aurait pas réussi. Si je dis, pour faire de l’hydrogène, faites agir un acide sur du zinc, je formule une règle qui réussit ; j’aurais pu dire, faites agir de l’eau distillée sur de l’or ; cela aurait été aussi une règle, seulement elle n’aurait pas réussi. Si donc les « recettes » scientifiques ont une valeur, comme règle d’action, c’est que nous savons qu’elles réussissent, du moins en général. Mais savoir cela, c’est bien savoir quelque chose et alors pourquoi venez- vous nous dire que nous ne pouvons rien connaître ? La science prévoit, et c’est parce qu’elle prévoit qu’elle peut être utile et servir de règle d’action. J’entends bien que ses prévisions sont souvent démenties par l’événement ; cela prouve que la science est imparfaite et si j’ajoute qu’elle le restera toujours, je suis certain que c’est là une prévision qui, elle du moins, ne sera jamais démentie. Toujours est-il que le savant se trompe moins souvent qu’un prophète qui prédirait au hasard. D’autre part le progrès est lent, mais continu, de sorte que les savants, quoique de plus en plus hardis, sont de moins en moins déçus. C’est peu, mais c’est assez. Je sais bien que M. Le Roy a dit quelque part que la Science se trompait plus souvent qu’on ne croit, que les comètes jouaient parfois des tours aux astronomes, que les savants, qui apparemment sont des hommes, ne parlaient pas volontiers de leurs insuccès et que, s’ils en parlaient, ils devraient compter plus de défaites que de victoires. Ce jour-là, M. Le Roy a évidemment dépassé sa pensée. Si la Science ne réussissait pas, elle ne pourrait servir de règle d’action ; d’où tirerait-elle sa valeur ? De ce qu’elle est « vécue », c’est-à-dire de ce que nous l’aimons et que nous croyons en elle ? Les alchimistes avaient des recettes pour faire de l’or, ils les aimaient et avaient foi en elles, et pourtant ce sont nos recettes qui sont les bonnes, bien que notre foi soit moins vive, parce qu’elles réussissent. Il n’y a pas moyen d’échapper à ce dilemme ; ou bien la science ne permet pas de prévoir, et alors elle est sans valeur comme règle d’action ; ou bien elle permet de prévoir d’une façon plus ou moins imparfaite, et alors elle n’est pas sans valeur comme moyen de connaissance. On ne peut même pas dire que l’action soit le but de la science ; devons- nous condamner les études faites sur l’étoile Sirius, sous prétexte que nous n’exercerons probablement jamais aucune action sur cet astre ? À mes yeux au contraire, c’est la connaissance qui est le but, et l’action qui est le moyen. Si je me félicite du développement industriel, ce n’est pas seulement parce qu’il fournit un argument facile aux avocats de la science ; c’est surtout parce qu’il donne au savant la foi en lui-même et aussi parce qu’il lui offre un champ d’expérience immense, où il se heurte à des forces trop colossales pour qu’il y ait moyen de donner un coup de pouce. Sans ce lest, qui sait s’il ne quitterait pas terre, séduit par le mirage de quelque scholastique nouvelle, ou s’il ne désespérerait pas en croyant qu’il n’a fait qu’un rêve ? § 3. — LE FAIT BRUT ET LE FAIT SCIENTIFIQUE Ce qu’il y avait de plus paradoxal dans la thèse de M. Le Roy, c’était cette affirmation que le savant crée le fait ; c’en était en même temps le point essentiel et c’est un de ceux qui ont été le plus discutés. Peut-être, dit-il (je crois bien que c’était là une concession), n’est-ce pas le savant qui crée le fait brut ; c’est du moins lui qui crée le fait scientifique. Cette distinction du fait brut et du fait scientifique ne me paraît pas illégitime par elle-même. Mais je me plains d’abord que la frontière n’ait été tracée ni d’une manière exacte, ni d’une manière précise ; et ensuite que l’auteur ait semblé sous-entendre que le fait brut, n’étant pas scientifique, est en dehors de la science. Enfin je ne puis admettre que le savant crée librement le fait scientifique puisque c’est le fait brut qui le lui impose. Les exemples donnés par M. Le Roy m’ont beaucoup étonné. Le premier est emprunté à la notion d’atome. L’atome choisi comme exemple de fait ! j’avoue que ce choix m’a tellement déconcerté que je préfère n’en rien dire. J’ai évidemment mal compris la pensée de l’auteur et je ne saurais la discuter avec fruit. Le second cas pris pour exemple est celui d’une éclipse où le phénomène brut est un jeu d’ombre et de lumière, mais où l’astronome ne peut intervenir sans apporter deux éléments étrangers, à savoir une horloge et la loi de Newton. Enfin M. Le Roy cite la rotation de la Terre ; on lui a répondu : mais ce n’est pas un fait, et il a répliqué : c’en était un pour Galilée qui l’affirmait comme pour l’inquisiteur qui le niait. Toujours est-il que ce n’est pas un fait au même titre que ceux dont nous venons de parler et que leur donner le même nom, c’est s’exposer à bien des confusions. Voilà donc quatre degrés : 1° Il fait noir, dit l’ignorant. 2° L’éclipse a eu lieu à neuf heures, dit l’astronome. 3° L’éclipse a eu lieu à l’heure que l’on peut déduire des tables construites d’après les lois de Newton, dit-il encore. 4° Cela tient à ce que la terre tourne autour du soleil, dit enfin Galilée. Où est donc la frontière entre le fait brut et le fait scientifique ? À lire M. Le Roy on croirait que c’est entre le premier et le deuxième échelon, mais qui ne voit qu’il y a plus de distance du deuxième au troisième, et plus encore du troisième au quatrième. Qu’on me permette de citer deux exemples qui nous éclaireront peut- être un peu. J’observe la déviation d’un galvanomètre à l’aide d’un miroir mobile qui projette une image lumineuse ou spot sur une échelle divisée. Le fait brut c’est : je vois le spot se déplacer sur l’échelle, et le fait scientifique c’est : il passe un courant dans le circuit. Ou bien encore : quand je fais une expérience, je dois faire subir au résultat certaines corrections, parce que je sais que j’ai dû commettre des erreurs. Ces erreurs sont de deux sortes, les unes sont accidentelles et je les corrigerai en prenant la moyenne ; les autres sont systématiques et je ne pourrai les corriger que par une étude approfondie de leurs causes. Le premier résultat obtenu est alors le fait brut, tandis que le fait scientifique c’est le résultat final après les corrections terminées. En réfléchissant à ce dernier exemple, nous sommes conduits à subdiviser notre second échelon, et au lieu de dire : 2. L’éclipse a eu lieu à neuf heures, nous dirons : 2 a. L’éclipse a eu lieu quand mon horloge marquait neuf heures, et 2 b. Ma pendule retardant de dix minutes, l’éclipse a eu lieu à neuf heures dix. Et ce n’est pas tout : le premier échelon aussi doit être subdivisé, et ce n’est pas entre ces deux subdivisions que la distance sera la moins grande ; entre l’impression d’obscurité que ressent le témoin d’une éclipse, et l’affirmation ; il fait noir, que cette impression lui arrache, il est nécessaire de distinguer. En un sens c’est la première qui est le seul vrai fait brut, et la seconde est déjà une sorte de fait scientifique. Voilà donc maintenant notre échelle qui a six échelons, et bien qu’il n’y ait aucune raison pour s’arrêter à ce chiffre, nous nous y tiendrons. Ce qui me frappe d’abord c’est ceci. Au premier de nos six échelons, le fait, encore complètement brut, est pour ainsi dire individuel, il est complètement distinct de tous les autres faits possibles. Dès le second échelon, il n’en est déjà plus de même. L’énoncé du fait pourrait convenir à une infinité d’autres faits. Aussitôt qu’intervient le langage, je ne dispose plus que d’un nombre fini de termes pour exprimer les nuances en nombre infini que mes impressions pourraient revêtir. Quand je dis : il fait noir, cela exprime bien les impressions que j’éprouve en assistant à une éclipse ; mais dans l’obscurité même, on pourrait imaginer une foule de nuances, et si au lieu de celle qui s’est réalisée effectivement, c’eût été une nuance peu différente qui se fût produite, j’aurais cependant encore énoncé cet autre fait en disant : il fait noir. Seconde remarque : même au second échelon, l’énoncé d’un fait ne peut être que vrai ou faux. Il n’en serait pas de même pour une proposition quelconque ; si cette proposition est l’énoncé d’une convention, on ne peut pas dire que cet énoncé soit vrai, au sens propre du mot, puisqu’il ne saurait être vrai malgré moi et qu’il est vrai seulement parce je veux qu’il le soit. Quand je dis, par exemple, l’unité de longueur est le mètre, c’est un décret que je porte, ce n’est pas une constatation qui s’impose à moi. Il en est de même, comme je crois l’avoir montré ailleurs, quand il s’agit par exemple du postulatum d’Euclide. Quand on me demande : fait-il noir ? je sais toujours si je dois répondre oui ou non. Bien qu’une infinité de faits possibles soient susceptibles de ce même énoncé : il fait noir, je saurai toujours si le fait réalisé rentre ou ne rentre pas parmi ceux qui répondent à cet énoncé. Les faits sont classés en catégories, et si l’on me demande si le fait que je constate rentre ou ne rentre pas dans telle catégorie, je n’hésiterai pas. Sans doute cette classification comporte assez d’arbitraire pour laisser à la liberté ou au caprice de l’homme une large part. En un mot, cette classification est une convention. Cette convention étant donnée, si l’on me demande : tel fait est-il vrai ? je saurai toujours que répondre, et ma réponse me sera imposée par le témoignage de mes sens. Si donc pendant une éclipse, on demande : fait-il noir ? tout le monde répondra oui. Sans doute ceux-là répondraient non qui parleraient une langue où clair se dirait noir et où noir se dirait clair. Mais quelle importance cela peut-il avoir ? De même, en mathématiques, quand j’ai posé les définitions, et les postulats qui sont des conventions, un théorème ne peut plus être que vrai ou faux. Mais pour répondre à cette question : ce théorème est-il vrai ? ce n’est plus au témoignage de mes sens que j’aurai recours, mais bien au raisonnement. L’énoncé d’un fait est toujours vérifiable et pour la vérification nous avons recours soit au témoignage de nos sens, soit au souvenir de ce témoignage. C’est là proprement ce qui caractérise un fait. Si vous me posez la question : tel fait est-il vrai ? je commencerai par vous demander, s’il y a lieu, de préciser les conventions, par vous demander, en d’autres termes, quelle langue vous avez parlé ; puis une fois fixé sur ce point, j’interrogerai mes sens et je répondrai, oui ou non. Mais la réponse, ce seront mes sens qui l’auront faite, ce ne sera pas vous en me disant : c’est en anglais ou c’est en français que je vous ai parlé. Y a-t-il quelque chose à changer à tout cela quand nous passons aux échelons suivants ? Quand j’observe un galvanomètre, ainsi que je le disais tout à l’heure, si je demande à un visiteur ignorant : le courant passe-t-il ? il va regarder le fil pour tâcher d’y voir passer quelque chose ; mais si je pose la même question à mon aide qui comprend ma langue, il saura que cela veut dire : le spot se déplace-t-il ? et il regardera sur l’échelle. Quelle différence y a-t-il alors entre l’énoncé d’un fait brut et l’énoncé d’un fait scientifique ? il y a la même différence qu’entre l’énoncé d’un même fait brut dans la langue française et dans la langue allemande. L’énoncé scientifique est la traduction de l’énoncé brut dans un langage qui se distingue surtout de l’allemand vulgaire ou du français vulgaire parce qu’il est parlé par un bien moins grand nombre de personnes. N’allons pas trop vite cependant. Pour mesurer un courant, je puis me servir d’un très grand nombre de types de galvanomètres ou encore d’un électrodynamomètre. Et alors quand je dirai : il règne dans ce circuit un courant de tant d’ampères, cela voudra dire : si j’adapte à ce circuit tel galvanomètre je verrai le spot venir à la division a ; mais cela voudra dire également : si j’adapte à ce circuit tel électrodynamomètre, je verrai le spot venir à la division b. Et cela voudra dire encore beaucoup d’autres choses, car le courant peut se manifester non seulement par des effets mécaniques, mais par des effets chimiques, thermiques, lumineux, etc. Voilà donc un même énoncé qui convient à un très grand nombre de faits absolument différents. Pourquoi ? C’est parce que j’admets une loi d’après laquelle toutes les fois que tel effet mécanique se produira, tel effet chimique se produira de son côté. Des expériences antérieures très nombreuses ne m’ont jamais montré cette loi en défaut et alors je me suis rendu compte que je pourrais exprimer par le même énoncé deux faits aussi invariablement liés l’un à l’autre. Quand on me demandera : le courant passe-t-il ? je pourrai comprendre que cela veut dire : tel effet mécanique va-t-il se produire ? mais je pourrai comprendre aussi : tel effet chimique va-t-il se produire ? Je vérifierai donc soit l’existence de l’effet mécanique, soit celle de l’effet chimique, cela sera indifférent, puisque dans un cas comme dans l’autre la réponse doit être la même. Et si la loi venait un jour à être reconnue fausse ? Si on s’apercevait que la concordance des deux effets mécanique et chimique n’est pas constante ? Ce jour-là, il faudrait changer le langage scientifique pour en faire disparaître une grave ambiguïté. Et puis après ? Croit-on que le langage ordinaire, à l’aide duquel on exprime les faits de la vie quotidienne, soit exempt d’ambiguïté ? En conclura-t-on que les faits de la vie quotidienne sont l’œuvre des grammairiens ? Vous me demandez : y a-t-il un courant ? je cherche si l’effet mécanique existe, je le constate et je réponds : oui, il y a un courant. Vous comprenez à la fois que cela veut dire que l’effet mécanique existe, et que l’effet chimique, que je n’ai pas recherché, existe également. Imaginons maintenant que, par impossible, la loi que nous croyions vraie, ne le soit pas et que l’effet chimique n’ait pas existé dans ce cas. Dans cette hypothèse il y aura deux faits distincts, l’un directement observé et qui est vrai, l’autre inféré et qui est faux. On pourra dire à la rigueur que le second, c’est nous qui l’aurons créé. De sorte que la part de collaboration personnelle de l’homme dans la création du fait scientifique, c’est l’erreur. Mais si nous pouvons dire que le fait en question est faux, n’est-ce pas justement parce qu’il n’est pas une création libre et arbitraire de notre esprit, une convention déguisée, auquel cas il ne serait ni vrai ni faux ? Et en effet il était vérifiable, je n’avais pas fait la vérification, mais j’aurais pu la faire. Si j’ai fait une fausse réponse, c’est parce que j’ai voulu répondre trop vite, sans avoir interrogé la nature qui seule savait le secret. Quand, après une expérience, je corrige les erreurs accidentelles et systématiques pour dégager le fait scientifique, c’est encore la même chose ; le fait scientifique ne sera jamais que le fait brut traduit dans un autre langage. Quand je dirai : il est telle heure, cela sera une manière abrégée de dire : il y a telle relation entre l’heure que marque ma pendule, et l’heure qu’elle marquait au moment du passage de tel astre et de tel autre astre au méridien. Et une fois cette convention de langage adoptée par tous, quand on me demandera : est-il telle heure ? il ne dépendra pas de moi de répondre oui ou non. Passons à l’avant-dernier échelon : l’éclipse a lieu à l’heure donnée par les tables déduites des lois de Newton. C’est encore une convention de langage qui est parfaitement claire pour ceux qui connaissent la Mécanique Céleste ou simplement pour ceux qui possèdent les tables calculées par les Astronomes. On me demande : l’éclipse a-t-elle lieu à l’heure prédite ? Je cherche dans la Connaissance des Temps, je vois que l’éclipse était annoncée pour neuf heures et je comprends que la question voulait dire : l’éclipse a-t-elle eu lieu à neuf heures ? Là encore nous n’avons rien à changer à nos conclusions. Le fait scientifique n’est que le fait brut traduit dans un langage commode. Il est vrai qu’au dernier échelon les choses changent. La terre tourne-t- elle ? Est-ce là un fait vérifiable ? Galilée et le Grand-Inquisiteur pouvaient- ils, pour se mettre d’accord, en appeler au témoignage de leurs sens ? Au contraire, ils étaient d’accord sur les apparences, et quelles qu’eussent été les expériences accumulées, ils seraient restés d’accord sur les apparences sans s’accorder jamais sur leur interprétation. C’est même pour cela qu’ils ont été obligés d’avoir recours à des procédés de discussion aussi peu scientifiques. C’est pourquoi j’estime qu’ils n’étaient pas en désaccord sur un fait ; nous n’avons pas le droit de donner le même nom à la rotation de la Terre, qui était l’objet de leur discussion, et aux faits bruts ou scientifiques que nous avons passés en revue jusqu’ici. Après ce qui précède, il semble superflu de rechercher si le fait brut est en dehors de la science, car il ne peut pas y avoir, ni science sans fait scientifique, ni fait scientifique sans fait brut, puisque le premier n’est que la traduction du second. Et alors a-t-on le droit de dire que le savant crée le fait scientifique ? Tout d’abord il ne le crée pas ex nihilo puisqu’il le fait avec le fait brut. Par conséquent il ne le fait pas librement et comme il veut. Quelque habile que soit l’ouvrier, sa liberté est toujours limitée par les propriétés de la matière première sur laquelle il opère. Que voulez-vous dire après tout quand vous parlez de cette création libre du fait scientifique et quand vous prenez pour exemple l’astronome qui intervient activement dans le phénomène de l’éclipse en apportant son horloge ? Voulez-vous dire : l’éclipse a eu lieu à neuf heures ? mais si l’astronome avait voulu qu’elle eût lieu à dix heures, cela ne tenait qu’à lui, il n’avait qu’à avancer son horloge d’une heure. Mais l’astronome, en faisant cette mauvaise plaisanterie, aurait évidemment abusé d’une équivoque. Quand il me dit : l’éclipse a eu lieu à neuf heures, j’entends que neuf heures est l’heure déduite de l’indication brute de la pendule, par la série des corrections d’usage. S’il m’a donné seulement cette indication brute, ou s’il a fait des corrections contraires aux règles habituelles, il a changé sans me prévenir le langage convenu. Si au contraire il a eu soin de me prévenir, je n’ai pas à me plaindre, mais alors c’est toujours le même fait exprimé dans un autre langage. En résumé, tout ce que crée le savant dans un fait, c’est le langage dans lequel il l’énonce. S’il prédit un fait, il emploiera ce langage, et pour tous ceux qui sauront le parler et l’entendre, sa prédiction est exempte d’ambiguïté. D’ailleurs une fois cette prédiction lancée, il ne dépend pas évidemment de lui qu’elle se réalise ou qu’elle ne se réalise pas. Que reste-t-il alors de la thèse de M. Le Roy ? Il reste ceci : le savant intervient activement en choisissant les faits qui méritent d’être observés. Un fait isolé n’a par lui-même aucun intérêt ; il en prend un si l’on a lieu de penser qu’il pourra aider à en prédire d’autres ; ou bien encore si, ayant été prédit, sa vérification est la confirmation d’une loi. Qui choisira les faits qui, répondant à ces conditions, méritent le droit de cité dans la science ? C’est la libre activité du savant. Et ce n’est pas tout. J’ai dit que le fait scientifique est la traduction d’un fait brut dans un certain langage ; j’aurais dû ajouter que tout fait scientifique est formé de plusieurs faits bruts. Les exemples cités plus haut le montrent assez bien. Par exemple pour l’heure de l’éclipse mon horloge marquait l’heure α à l’instant de l’éclipse ; elle marquait l’heure β au moment du dernier passage au méridien d’une certaine étoile que nous prendrons pour origine des ascensions droites ; elle marquait l’heure γ au moment de l’avant-dernier passage de cette même étoile. Voilà trois faits distincts (encore remarquera-t-on que chacun d’eux résulte lui-même de deux faits bruts simultanés ; mais passons sur cette remarque). Au lieu de cela je dis : l’éclipse a eu lieu à l’heure , et les trois faits se trouvent concentrés en un fait scientifique unique. J’ai jugé que les trois lectures α, β, γ faites sur mon horloge à trois moments différents étaient dépourvues d’intérêt et que la seule chose intéressante était la combinaison de ces trois lectures. Dans ce jugement on retrouve la libre activité de mon esprit. Mais j’ai ainsi épuisé ma puissance ; je ne puis pas faire que cette combinaison ait telle valeur et non telle autre, puisque je ne puis influer ni sur la valeur de α, ni sur celle de β, ni sur celle de γ qui me sont imposées comme faits bruts. En résumé les faits sont des faits, et s’il arrive qu’ils sont conformes à une prédiction ce n’est pas par un effet de notre libre activité. Il n’y a pas de frontière précise entre le fait brut et le fait scientifique ; on peut dire seulement que tel énoncé de fait est plus brut ou, au contraire, plus scientifique que tel autre. § 4. — LE « NOMINALISME » ET « L’INVARIANT UNIVERSEL » Si des faits nous passons aux lois, il est clair que la part de la libre activité du savant deviendra beaucoup plus grande. Mais M. Le Roy ne la fait-il pas encore trop grande ? C’est ce que nous allons examiner. Rappelons d’abord les exemples qu’il a donnés. Quand je dis : le phosphore fond à 44°, je crois énoncer une loi ; en réalité c’est la définition même du phosphore ; si l’on venait à découvrir un corps qui, jouissant d’ailleurs de toutes les propriétés du phosphore ne fondrait pas à 44°, on lui donnerait un autre nom, voilà tout, et la loi resterait vraie. De même quand je dis : les corps graves en chute libre parcourent des espaces proportionnels aux carrés des temps, je ne fais que donner la définition de la chute libre. Toutes les fois que la condition ne sera pas remplie, je dirai que la chute n’est pas libre, de sorte que la loi ne pourra jamais être en défaut. Il est clair que si les lois se réduisaient à cela, elles ne pourraient servir à prédire ; elles ne pourraient donc servir à rien, ni comme moyen de connaissance, ni comme principe d’action. Quand je dis : le phosphore fond à 44°, je veux dire par là : tout corps qui jouit de telle ou telle propriété (à savoir de toutes les propriétés du phosphore, sauf le point de fusion) fond à 44°. Entendue ainsi, ma proposition est bien une loi, et cette loi pourra m’être utile, car si je rencontre un corps jouissant de ces propriétés, je pourrai prédire qu’il fondra à 44°. Sans doute, on pourra découvrir que la loi est fausse. On lira alors dans les traités de chimie : « il existe deux corps que les chimistes ont longtemps confondus sous le nom de phosphore ; ces deux corps ne diffèrent que par leur point de fusion ». Ce ne serait évidemment pas la première fois que les chimistes en arriveraient à séparer deux corps qu’ils n’auraient d’abord pas su distinguer ; tels par exemple le néodyme et le praséodyme, longtemps confondus sous le nom de didyme. Je ne crois pas que les chimistes redoutent beaucoup que pareille mésaventure arrive jamais au phosphore. Et si par impossible elle arrivait, les deux corps n’auraient probablement pas identiquement même densité, identiquement même chaleur spécifique, etc., de sorte qu’après avoir déterminé avec soin la densité par exemple, on pourra encore prévoir le point de fusion. Peu importe d’ailleurs ; il suffit de remarquer qu’il y a une loi, et que cette loi, vraie ou fausse, ne se réduit pas à une tautologie. Dira-t-on que, si nous ne connaissons pas sur la Terre un corps qui ne fonde pas à 44° tout en ayant les autres propriétés du phosphore, nous ne pouvons pas savoir s’il n’en existe pas sur d’autres planètes ? Sans doute, cela peut se soutenir, et on conclurait alors que la loi en question, qui peut nous servir de règle d’action à nous qui habitons la Terre, n’a cependant aucune valeur générale au point de vue de la connaissance, et ne doit son intérêt qu’au hasard qui nous a placés sur ce globe. C’est possible, mais s’il en était ainsi, la loi n’aurait pas de valeur, non pas parce qu’elle se réduirait à une convention, mais parce qu’elle serait fausse. De même en ce qui concerne la chute des corps. Il ne me servirait à rien d’avoir donné le nom de chute libre aux chutes qui se produisent conformément à la loi de Galilée, si je ne savais d’autre part que, dans telles circonstances, la chute sera probablement libre ou à peu près libre. Cela alors est une loi qui peut être vraie ou fausse, mais qui ne se réduit plus à une convention. Je suppose que les astronomes viennent de découvrir que les astres n’obéissent pas exactement à la loi de Newton. Ils auront le choix entre deux attitudes ; ils pourront dire que la gravitation ne varie pas exactement comme l’inverse du carré des distances, ou bien ils pourront dire que la gravitation n’est pas la seule force qui agisse sur les astres et qu’il vient s’y ajouter une force de nature différente. Dans ce second cas, on considérera la loi de Newton comme la définition de la gravitation. Ce sera l’attitude nominaliste. Le choix entre les deux attitudes reste libre, et se fait par des considérations de commodité, quoique ces considérations soient le plus souvent tellement puissantes qu’il reste pratiquement peu de chose de cette liberté. Nous pouvons décomposer cette proposition : (1) les astres suivent la loi de Newton, en deux autres : (2) la gravitation suit la loi de Newton, (3) la gravitation est la seule force qui agisse sur les astres. Dans ce cas la proposition (2) n’est plus qu’une définition et échappe au contrôle de l’expérience ; mais alors ce sera sur la proposition (3) que ce contrôle pourra s’exercer. Il le faut bien puisque la proposition résultante (1) prédit des faits bruts vérifiables. C’est grâce à ces artifices que par un nominalisme inconscient, les savants ont élevé au-dessus des lois ce qu’ils appellent des principes. Quand une loi a reçu une confirmation suffisante de l’expérience, nous pouvons adopter deux attitudes, ou bien laisser cette loi dans la mêlée ; elle restera soumise alors à une incessante révision qui sans aucun doute finira par démontrer qu’elle n’est qu’approximative. Ou bien on peut l’ériger en principe, en adoptant des conventions telles que la proposition soit certainement vraie. Pour cela on procède toujours de la même manière. La loi primitive énonçait une relation entre deux faits bruts A et B ; on introduit entre ces deux faits bruts un intermédiaire abstrait C, plus ou moins fictif (tel était dans l’exemple précédent l’entité impalpable de la gravitation). Et alors nous avons une relation entre A et C que nous pouvons supposer rigoureuse et qui est le principe ; et une autre entre C et B qui reste une loi révisable. Le principe, désormais cristallisé pour ainsi dire, n’est plus soumis au contrôle de l’expérience. Il n’est pas vrai ou faux, il est commode. On a trouvé souvent de grands avantages à procéder de la sorte, mais il est clair que si toutes les lois avaient été transformées en principes, il ne serait rien resté de la science. Toute loi peut se décomposer en un principe et une loi, mais il est bien clair par là que, si loin que l’on pousse cette décomposition, il restera toujours des lois. Le nominalisme a donc des bornes et c’est ce qu’on pourrait méconnaître, si on prenait à la lettre les assertions de M. Le Roy. Une revue rapide des sciences nous fera mieux comprendre quelles sont ces bornes. L’attitude nominaliste n’est justifiée que quand elle est commode ; quand l’est-elle ? L’expérience nous fait connaître des relations entre les corps ; c’est là le fait brut ; ces relations sont extrêmement compliquées. Au lieu d’envisager directement la relation du corps A et du corps B, nous introduisons entre eux un intermédiaire qui est l’espace, et nous envisageons trois relations distinctes : celle du corps A avec la figure A′ de l’espace, celle du corps B avec la figure B′ de l’espace, celle des deux figures A′ et B′ entre elles. Pourquoi ce détour est-il avantageux ? Parce que la relation de A et B était compliquée, mais différait peu de celle de A′ et B′ qui est simple : de sorte que cette relation compliquée peut être remplacée par la relation simple entre A′ et B′, et par deux autres relations qui nous font connaître que les différences entre A et A′ d’une part, entre B et B′ d’autre part sont très petites. Par exemple si A et B sont deux corps solides naturels qui se déplacent en se déformant légèrement, nous envisagerons deux figures invariables mobiles A′ et B′. Les lois des déplacements relatifs de ces figures A′ et B′ seront très simples ; ce seront celles de la géométrie. Et nous ajouterons ensuite que le corps A, qui diffère toujours très peu de A′, se dilate par l’effet de la chaleur et fléchit par l’effet de l’élasticité. Ces dilatations et ces flexions, justement parce qu’elles sont très petites, seront pour notre esprit d’une étude relativement facile. S’imagine-t-on à quelles complications de langage il aurait fallu se résigner si on avait voulu comprendre dans un même énoncé le déplacement du solide, sa dilatation et sa flexion ? La relation entre A et B était une loi brute, et elle s’est décomposée ; nous avons maintenant deux lois qui expriment les relations de A et A′ ; de B et B′ et un principe qui exprime celle de A′ avec B′. C’est l’ensemble de ces principes que l’on appelle géométrie. Deux remarques encore. Nous avons une relation entre deux corps A et B que nous avons remplacée par une relation entre deux figures A′ et B′ ; mais cette même relation entre les deux mêmes figures A′ et B′ aurait pu tout aussi bien remplacer avantageusement une relation entre deux autres corps A′′ et B′′, entièrement différents de A et B. Et cela de bien des manières. Si l’on n’avait pas inventé les principes et la géométrie, après avoir étudié la relation de A et B, il faudrait recommencer ab ovo l’étude de la relation de A′′ à B′′. C’est pour cela que la géométrie est si précieuse. Une relation géométrique peut remplacer avantageusement une relation qui, considérée à l’état brut, devrait être regardée comme mécanique, elle peut en remplacer une autre qui devrait être regardée comme optique, etc. Et alors qu’on ne vienne pas dire : mais c’est la preuve que la géométrie est une science expérimentale ; en séparant ses principes de lois d’où on les a extraits, vous la séparez artificiellement elle-même des sciences qui lui ont donné naissance. Les autres sciences ont également des principes et cela n’empêche pas qu’on doive les appeler expérimentales. Il faut reconnaître qu’il aurait été difficile de ne pas faire cette séparation que l’on prétend artificielle. On sait le rôle qu’a joué la cinématique des corps solides dans la genèse de la géométrie ; devrait-on dire alors que la géométrie n’est qu’une branche de la cinématique expérimentale ? Mais les lois de la propagation rectiligne de la lumière ont contribué aussi à la formation de ses principes. Faudra-t-il que la géométrie soit regardée à la fois comme une branche de la cinématique et comme une branche de l’optique ? Je rappelle en outre que notre espace euclidien qui est l’objet propre de la géométrie a été choisi, pour des raisons de commodité, parmi un certain nombre de types qui préexistent dans notre esprit et qu’on appelle groupes. Si nous passons à la Mécanique, nous voyons encore de grands principes dont l’origine est analogue, et comme leur « rayon d’action » pour ainsi dire est moins grand, on n’a plus de raison de les séparer de la Mécanique proprement dite et de regarder cette science comme déductive. En Physique enfin, le rôle des principes est encore amoindri. Et en effet on ne les introduit que quand on y a avantage. Or ils ne sont avantageux justement que parce qu’ils sont peu nombreux, parce que chacun d’eux remplace à peu près un grand nombre de lois. On n’a donc pas intérêt à les multiplier. D’ailleurs il faut aboutir, et pour cela il faut bien finir par quitter l’abstraction pour prendre le contact de la réalité. Voilà les bornes du nominalisme, et elles sont étroites. M. Le Roy a insisté pourtant, et il a posé la question sous une autre forme. Puisque l’énoncé de nos lois peut varier avec les conventions que nous adoptons, que ces conventions peuvent modifier même les relations naturelles de ces lois, y a-t-il dans l’ensemble de ces lois quelque chose qui soit indépendant de ces conventions et qui puisse pour ainsi dire jouer le rôle d’invariant universel ? On a par exemple introduit la fiction d’êtres qui, ayant fait leur éducation dans un monde différent du nôtre, auraient été amenés à créer une géométrie non-euclidienne. Si ces êtres étaient ensuite brusquement transportés dans notre monde à nous, ils observeraient les mêmes lois que nous, mais ils les énonceraient d’une manière toute différente. À la vérité, il y aurait encore quelque chose de commun entre les deux énoncés, mais c’est parce que ces êtres ne diffèrent pas encore assez de nous. On peut imaginer des êtres plus étranges encore, et la partie commune entre les deux systèmes d’énoncés se rétrécira de plus en plus. Se rétrécira-t-elle ainsi en tendant vers zéro, ou bien restera-t-il un résidu irréductible qui serait alors l’invariant universel cherché ? La question demande à être précisée. Veut-on que cette partie commune des énoncés soit exprimable par des mots ? Il est clair alors qu’il n’y a pas de mots communs à toutes les langues, et nous ne pouvons avoir la prétention de construire je ne sais quel invariant universel qui serait compris à la fois par nous, et par les géomètres fictifs non-euclidiens dont je viens de parler ; pas plus que nous ne pouvons construire une phrase qui soit comprise à la fois des Allemands qui ne savent pas le français et des Français qui ne savent pas l’allemand. Mais nous avons des règles fixes qui nous permettent de traduire les énoncés français en allemand, et inversement. C’est pour cela qu’on a fait des grammaires et des dictionnaires. Il y a aussi des règles fixes pour traduire le langage euclidien dans le langage non-euclidien, ou s’il n’y en a pas, on pourrait en faire. Et si même, il n’y avait ni interprète, ni dictionnaire, si les Allemands et les Français, après avoir vécu des siècles dans des mondes séparés, se trouvaient tout à coup en contact, croit-on qu’il n’y aurait rien de commun entre la science des livres allemands, et celle des livres français ? Les Français et les Allemands finiraient certainement par s’entendre, comme les Indiens d’Amérique ont fini par comprendre la langue de leurs vainqueurs après l’arrivée des Espagnols. Mais, dira-t-on, sans doute, les Français seraient capables de comprendre les Allemands même sans avoir appris l’allemand, mais c’est parce qu’il reste entre les Français et les Allemands quelque chose de commun, puisque les uns et les autres sont des hommes. On arriverait encore à s’entendre avec nos non-euclidiens hypothétiques, bien qu’ils ne soient plus des hommes, parce qu’ils conserveraient encore quelque chose d’humain. Mais en tout cas un minimum d’humanité est nécessaire. C’est possible, mais j’observerai d’abord que ce peu d’humanité qui resterait chez les non-euclidiens, suffirait non seulement pour qu’on pût traduire un peu de leur langage, mais pour qu’on pût traduire tout leur langage. Maintenant, qu’il faille un minimum, c’est ce que je concède ; je suppose qu’il existe je ne sais quel fluide qui pénètre entre les molécules de notre matière à nous, sans avoir aucune action sur elle ni sans subir aucune action qui en vienne. Je suppose que des êtres soient sensibles à l’influence de ce fluide et insensibles à celle de notre matière. Il est clair que la science de ces êtres différerait absolument de la nôtre et qu’il serait superflu de chercher un « invariant » commun à ces deux sciences. Ou bien encore, si ces êtres rejetaient notre logique et n’admettaient pas, par exemple, le principe de contradiction. Mais vraiment je crois qu’il est sans intérêt d’examiner de semblables hypothèses. Et alors, si nous ne poussons pas si loin la bizarrerie, si nous n’introduisons que des êtres fictifs ayant des sens analogues aux nôtres et sensibles aux mêmes impressions, et d’autre part admettant les principes de notre logique, nous pourrons conclure alors que leur langage, quelque différent du nôtre qu’il puisse être, serait toujours susceptible d’être traduit. Or la possibilité de la traduction implique l’existence d’un invariant. Traduire, c’est précisément dégager cet invariant. Ainsi, déchiffrer un document cryptographique, c’est chercher ce qui dans ce document demeure invariant, quand on en permute les lettres. Quelle est maintenant la nature de cet invariant, il est aisé de s’en rendre compte, et un mot nous suffira. Les lois invariantes ce sont les relations entre les faits bruts, tandis que les relations entre les « faits scientifiques » restaient toujours dépendantes de certaines conventions.     CHAPITRE XI La Science et la Réalité § 5. — CONTINGENCE ET DÉTERMINISME Je n’ai pas l’intention de traiter ici la question de la contingence des lois de la nature, qui est évidemment insoluble, et sur laquelle on a déjà tant écrit. Je voudrais seulement faire remarquer que de sens différents on a donné à ce mot de contingence et combien il serait utile de les distinguer. Si nous envisageons une loi particulière quelconque, nous pouvons être certains d’avance qu’elle ne peut être qu’approximative. Elle est, en effet, déduite de vérifications expérimentales et ces vérifications n’étaient et ne pouvaient être qu’approchées. On doit toujours s’attendre à ce que des mesures plus précises nous obligent à ajouter de nouveaux termes à nos formules ; c’est ce qui est arrivé par exemple pour la loi de Mariotte. De plus l’énoncé d’une loi quelconque est forcément incomplet. Cet énoncé devrait comprendre l’énumération de tous les antécédents en vertu desquels un conséquent donné pourra se produire. Je devrais d’abord décrire toutes les conditions de l’expérience à faire et la loi s’énoncerait alors : si toutes les conditions sont remplies tel phénomène aura lieu. Mais on ne sera sûr de n’avoir oublié aucune de ces conditions, que quand on aura décrit l’état de l’univers tout entier à l’instant t ; toutes les parties de cet univers peuvent en effet exercer une influence plus ou moins grande sur le phénomène qui doit se produire à l’instant t + dt. Or il est clair qu’une pareille description ne saurait se trouver dans l’énoncé de la loi ; si on la faisait d’ailleurs, la loi deviendrait inapplicable ; si on exigeait à la fois tant de conditions, il y aurait bien peu de chance pour qu’à aucun moment elles fussent jamais toutes réalisées. Alors comme on ne sera jamais certain de n’avoir pas oublié quelque condition essentielle, on ne pourra pas dire : si telles et telles conditions sont réalisées, tel phénomène se produira ; on pourra dire seulement : si telles et telles conditions sont réalisées, il est probable que tel phénomène se produira à peu près. Prenons la loi de la gravitation qui est la moins imparfaite de toutes les lois connues. Elle nous permet de prévoir les mouvements des planètes. Quand je m’en sers par exemple pour calculer l’orbite de Saturne, je néglige l’action des étoiles, et en agissant ainsi, je suis certain de ne pas me tromper, car je sais que ces étoiles sont trop éloignées pour que leur action soit sensible. J’annonce alors avec une quasi-certitude que les coordonnées de Saturne à telle heure seront comprises entre telles et telles limites. Cette certitude cependant est-elle absolue ? Ne pourrait-il exister dans l’univers quelque masse gigantesque, beaucoup plus grande que celle de tous les astres connus et dont l’action pourrait se faire sentir à de grandes distances ? Cette masse serait animée d’une vitesse colossale et après avoir circulé de tout temps à de telles distances que son influence soit restée jusqu’ici insensible pour nous, elle viendrait tout à coup passer près de nous. À coup sûr, elle produirait dans notre système solaire des perturbations énormes que nous n’aurions pu prévoir. Tout ce qu’on peut dire c’est qu’une pareille éventualité est tout à fait invraisemblable, et alors, au lieu de dire : Saturne sera près de tel point du ciel, nous devrons nous borner à dire : Saturne sera probablement près de tel point du ciel. Bien que cette probabilité soit pratiquement équivalente à la certitude, ce n’est qu’une probabilité. Pour toutes ces raisons, aucune loi particulière ne sera jamais qu’approchée et probable. Les savants n’ont jamais méconnu cette vérité ; seulement ils croient, à tort ou à raison, que toute loi pourra être remplacée par une autre plus approchée et plus probable, que cette loi nouvelle ne sera elle-même que provisoire, mais que le même mouvement pourra continuer indéfiniment, de sorte que la science en progressant possédera des lois de plus en plus probables, que l’approximation finira par différer aussi peu que l’on veut de l’exactitude et la probabilité de la certitude. Si les savants qui pensent ainsi avaient raison, devrait-on dire encore que les lois de la nature sont contingentes, bien que chaque loi, prise en particulier, puisse être qualifiée de contingente ? Ou bien devra-t-on exiger, avant de conclure à la contingence des lois naturelles, que ce progrès ait un terme, que le savant finisse un jour par être arrêté dans sa recherche d’une approximation de plus en plus grande et qu’au-delà d’une certaine limite, il ne rencontre plus dans la Nature que le caprice ? Dans la conception dont je viens de parler (et que j’appellerai la conception scientifique), toute loi n’est qu’un énoncé imparfait et provisoire, mais elle doit être remplacée un jour par une autre loi supérieure, dont elle n’est qu’une image grossière. Il ne reste donc pas de place pour l’intervention d’une volonté libre. Il me semble que la théorie cinétique des gaz va nous fournir un exemple frappant. On sait que dans cette théorie, on explique toutes les propriétés des gaz par une hypothèse simple ; on suppose que toutes les molécules gazeuses se meuvent en tous sens avec de grandes vitesses et qu’elles suivent des trajectoires rectilignes qui ne sont troublées que quand une molécule passe très près des parois du vase ou d’une autre molécule. Les effets que nos sens grossiers nous permettent d’observer sont les effets moyens, et dans ces moyennes, les grands écarts se compensent, ou tout au moins il est très improbable qu’ils ne se compensent pas ; de sorte que les phénomènes observables suivent des lois simples, telles que celle de Mariotte ou de Gay- Lussac. Mais cette compensation des écarts n’est que probable. Les molécules changent incessamment de place et dans ces déplacements continuels, les figures qu’elles forment passent successivement par toutes les combinaisons possibles. Seulement ces combinaisons sont très nombreuses, presque toutes sont conformes à la loi de Mariotte, quelques- unes seulement s’en écartent. Celles-là aussi se réaliseront, seulement il faudrait les attendre longtemps ; si l’on observait un gaz pendant un temps assez long, on finirait certainement par le voir s’écarter, pendant un temps très court, de la loi de Mariotte. Combien de temps faudrait-il attendre ? Si on voulait calculer le nombre d’années probable, on trouverait que ce nombre est tellement grand que pour écrire seulement le nombre de ses chiffres, il faudrait encore une dizaine de chiffres. Peu importe, il nous suffit qu’il soit fini. Je ne veux pas discuter ici la valeur de cette théorie. Il est clair que si on l’adopte, la loi de Mariotte ne nous apparaîtra plus que comme contingente, puisqu’il viendra un jour où elle ne sera plus vraie. Et pourtant croit-on que les partisans de la théorie cinétique soient des adversaires du déterminisme ? Loin de là, ce sont les plus intransigeants des mécanistes. Leurs molécules suivent des trajectoires rigides, dont elles ne s’écartent que sous l’influence de forces qui varient avec la distance suivant une loi parfaitement déterminée. Il ne reste pas dans leur système la plus petite place, ni pour la liberté, ni pour un facteur évolutif proprement dit, ni pour n’importe quoi qu’on puisse appeler contingence. J’ajoute, pour éviter une confusion, qu’il n’y a pas là non plus une évolution de la loi de Mariotte elle-même ; elle cesse d’être vraie, après je ne sais combien de siècles ; mais au bout d’une fraction de seconde, elle redevient vraie et cela pour un nombre incalculable de siècles. Et puisque j’ai prononcé ce mot d’évolution, dissipons encore un malentendu. On dit souvent : qui sait si les lois n’évoluent pas et si on ne découvrira pas un jour qu’elles n’étaient pas à l’époque carbonifère ce qu’elles sont aujourd’hui ? Qu’entend-on par là ? Ce que nous croyons savoir de l’état passé de notre globe, nous le déduisons de son état présent. Et comment se fait cette déduction, c’est par le moyen des lois supposées connues. La loi étant une relation entre l’antécédent et le conséquent, nous permet également bien de déduire le conséquent de l’antécédent, c’est-à- dire de prévoir l’avenir et de déduire l’antécédent du conséquent, c’est-à- dire de conclure du présent au passé. L’astronome qui connaît la situation actuelle des astres, peut en déduire leur situation future par la loi de Newton, et c’est ce qu’il fait quand il construit des éphémérides ; et il peut également en déduire leur situation passée. Les calculs qu’il pourra faire ainsi ne pourront pas lui enseigner que la loi de Newton cessera d’être vraie dans l’avenir, puisque cette loi est précisément son point de départ ; ils ne pourront pas davantage lui apprendre qu’elle n’était pas vraie dans le passé. Encore en ce qui concerne l’avenir, ses éphémérides pourront être un jour contrôlées et nos descendants reconnaîtront peut-être qu’elles étaient fausses. Mais en ce qui concerne le passé, le passé géologique qui n’a pas eu de témoins, les résultats de son calcul, comme ceux de toutes les spéculations où nous cherchons à déduire le passé du présent, échappent par leur nature même à toute espèce de contrôle. De sorte que si les lois de la nature n’étaient pas les mêmes à l’âge carbonifère qu’à l’époque actuelle, nous ne pourrons jamais le savoir, puisque nous ne pouvons rien savoir de cet âge que ce que nous déduisons de l’hypothèse de la permanence de ces lois. On dira peut-être que cette hypothèse pourrait conduire à des résultats contradictoires et qu’on sera obligé de l’abandonner. Ainsi, en ce qui concerne l’origine de la vie, on peut conclure qu’il y a toujours eu des êtres vivants, puisque le monde actuel nous montre toujours la vie sortant de la vie ; et on peut conclure aussi qu’il n’y en a pas toujours eu, puisque l’application des lois actuelles de la physique à l’état présent de notre globe nous enseigne qu’il y a eu un temps où ce globe était tellement chaud que la vie y était impossible. Mais les contradictions de ce genre peuvent toujours se lever de deux manières : on peut supposer que les lois actuelles de la nature ne sont pas exactement celles que nous avons admises ; ou bien on peut supposer que les lois de la nature sont actuellement celles que nous avons admises, mais qu’il n’en a pas toujours été ainsi. Il est clair que les lois actuelles ne seront jamais assez bien connues pour qu’on ne puisse adopter la première de ces deux solutions et qu’on soit contraint de conclure à l’évolution des lois naturelles. D’autre part supposons une pareille évolution ; admettons, si l’on veut, que l’humanité dure assez pour que cette évolution puisse avoir des témoins. Le même antécédent produira par exemple des conséquents différents à l’époque carbonifère et à l’époque quaternaire. Cela veut dire évidemment que les antécédents sont à peu près pareils ; si toutes les circonstances étaient identiques, l’époque carbonifère deviendrait indiscernable de l’époque quaternaire. Évidemment ce n’est pas là ce que l’on suppose. Ce qui reste, c’est que tel antécédent, accompagné de telle circonstance accessoire, produit tel conséquent ; et que le même antécédent, accompagné de telle autre circonstance accessoire, produit tel autre conséquent. Le temps ne fait rien à l’affaire. La loi, telle que la science mal informée l’aurait énoncée, et qui aurait affirmé que cet antécédent produit toujours ce conséquent, sans tenir compte des circonstances accessoires ; cette loi, dis-je, qui n’était qu’approchée et probable, doit être remplacée par une autre loi plus approchée et plus probable qui fait intervenir ces circonstances accessoires. Nous retombons donc toujours sur ce même processus que nous avons analysé plus haut, et si l’humanité venait à découvrir quelque chose dans ce genre, elle ne dirait pas que ce sont les lois qui ont évolué, mais les circonstances qui se sont modifiées. Voilà donc bien des sens différents du mot contingence. M. Le Roy les retient tous et il ne les distingue pas suffisamment, mais il en introduit un nouveau. Les lois expérimentales ne sont qu’approchées, et si quelques- unes nous apparaissent comme exactes, c’est que nous les avons artificiellement transformées en ce que j’ai appelé plus haut un principe. Cette transformation, nous l’avons faite librement, et comme le caprice qui nous a déterminés à la faire est quelque chose d’éminemment contingent, nous avons communiqué cette contingence à la loi elle-même. C’est en ce sens que nous avons le droit de dire que le déterminisme suppose la liberté, puisque c’est librement que nous devenons déterministes. Peut-être trouvera-t-on que c’est là faire la part bien large au nominalisme et que l’introduction de ce sens nouveau du mot contingence n’aidera pas beaucoup à résoudre toutes ces questions qui se posent naturellement et dont nous venons de dire quelques mots. Je ne veux nullement rechercher ici les fondements du principe d’induction ; je sais fort bien que je n’y réussirai pas ; il est aussi difficile de justifier ce principe que de s’en passer. Je veux seulement montrer comme les savants l’appliquent et sont forcés de l’appliquer. Quand le même antécédent se reproduit, le même conséquent doit se reproduire également ; tel est l’énoncé ordinaire. Mais réduit à ces termes ce principe ne pourrait servir à rien. Pour qu’on pût dire que le même antécédent s’est reproduit, il faudrait que les circonstances se fussent toutes reproduites, puisqu’aucune n’est absolument indifférente, et qu’elles se fussent exactement reproduites. Et, comme cela n’arrivera jamais, le principe ne pourra recevoir aucune application. Nous devons donc modifier l’énoncé et dire : si un antécédent A a produit une fois un conséquent B, un antécédent A′ peu différent de A, produira un conséquent B′ peu différent de B. Mais comment reconnaîtrons- nous que les antécédents A et A′ sont « peu différents » ? Si quelqu’une des circonstances peut s’exprimer par un nombre, et que ce nombre ait dans les deux cas des valeurs très voisines, le sens du mot « peu différent » est relativement clair ; le principe signifie alors que le conséquent est une fonction continue de l’antécédent. Et comme règle pratique, nous arrivons à cette conclusion que l’on a le droit d’interpoler. C’est en effet ce que les savants font tous les jours et sans l’interpolation toute science serait impossible. Observons toutefois une chose. La loi cherchée peut se représenter par une courbe. L’expérience nous a fait connaître certains points de cette courbe. En vertu du principe que nous venons d’énoncer nous croyons que ces points peuvent être reliés par un trait continu. Nous traçons ce trait à l’œil. De nouvelles expériences nous fourniront de nouveaux points de la courbe. Si ces points sont en dehors du trait tracé d’avance, nous aurons à modifier notre courbe, mais non pas à abandonner notre principe. Par des points quelconques, si nombreux qu’ils soient, on peut toujours faire passer une courbe continue. Sans doute, si cette courbe est trop capricieuse, nous serons choqués (et même nous soupçonnerons des erreurs d’expérience), mais le principe ne sera pas directement mis en défaut. De plus, parmi les circonstances d’un phénomène, il y en a que nous regardons comme négligeables, et nous considérerons A et A′ comme peu différents, s’ils ne diffèrent que par ces circonstances accessoires. Par exemple, j’ai constaté que l’hydrogène s’unissait à l’oxygène sous l’influence de l’étincelle, et je suis certain que ces deux gaz s’uniront de nouveau, bien que la longitude de Jupiter ait changé considérablement dans l’intervalle. Nous admettons par exemple que l’état des corps éloignés ne peut avoir d’influence sensible sur les phénomènes terrestres, et cela en effet semble s’imposer, mais il est des cas où le choix de ces circonstances pratiquement indifférentes comporte plus d’arbitraire ou, si l’on veut, exige plus de flair. Une remarque encore : le principe d’induction serait inapplicable, s’il n’existait dans la nature une grande quantité de corps semblables entre eux, ou à peu près semblables, et si l’on ne pouvait conclure par exemple d’un morceau de phosphore à un autre morceau de phosphore. Si nous réfléchissons à ces considérations, le problème du déterminisme et de la contingence nous apparaîtra sous un jour nouveau. Supposons que nous puissions embrasser la série de tous les phénomènes de l’univers dans toute la suite des temps. Nous pourrions envisager ce que l’on pourrait appeler les séquences, je veux dire des relations entre antécédent et conséquent. Je ne veux pas parler de relations constantes ou de lois, j’envisage séparément (individuellement pour ainsi dire) les diverses séquences réalisées. Nous reconnaîtrions alors que parmi ces séquences il n’y en a pas deux qui soient tout à fait pareilles. Mais, si le principe d’induction tel que nous venons de l’énoncer est vrai, il y en aura qui seront à peu près pareilles et qu’on pourra classer les unes à côté des autres. En d’autres termes, il est possible de faire une classification des séquences. C’est à la possibilité et à la légitimité d’une pareille classification que se réduit en fin de compte le déterminisme. C’est tout ce que l’analyse précédente en laisse subsister. Peut-être sous cette forme modeste semblera- t-il moins effrayant au moraliste. On dira sans doute que c’est revenir par un détour à la conclusion de M. le Roy que tout à l’heure nous semblions rejeter : c’est librement qu’on est déterministe. Et en effet toute classification suppose l’intervention active du classificateur. J’en conviens, cela peut se soutenir, mais il me semble que ce détour n’aura pas été inutile et aura contribué à nous éclairer un peu. § 6. — OBJECTIVITÉ DE LA SCIENCE J’arrive à la question posée par le titre de cet article : Quelle est la valeur objective de la science ? Et d’abord que devons-nous entendre par objectivité ? Ce qui nous garantit l’objectivité du monde dans lequel nous vivons, c’est que ce monde nous est commun avec d’autres êtres pensants. Par les communications que nous avons avec les autres hommes, nous recevons d’eux des raisonnements tout faits ; nous savons que ces raisonnements ne viennent pas de nous et en même temps nous y reconnaissons l’œuvre d’êtres raisonnables comme nous. Et comme ces raisonnements paraissent s’appliquer au monde de nos sensations, nous croyons pouvoir conclure que ces êtres raisonnables ont vu la même chose que nous ; c’est comme cela que nous savons que nous n’avons pas fait un rêve. Telle est donc la première condition de l’objectivité : ce qui est objectif doit être commun à plusieurs esprits, et par conséquent pouvoir être transmis de l’un à l’autre, et comme cette transmission ne peut se faire que par ce « discours » qui inspire tant de défiance à M. le Roy, nous sommes bien forcés de conclure : Pas de discours, pas d’objectivité. Les sensations d’autrui seront pour nous un monde éternellement fermé. La sensation que j’appelle rouge est-elle la même que celle que mon voisin appelle rouge, nous n’avons aucun moyen de le vérifier. Supposons qu’une cerise et un coquelicot produisent sur moi la sensation A et sur lui la sensation B et qu’au contraire une feuille produise sur moi la sensation B et sur lui la sensation A. Il est clair que nous n’en saurons jamais rien ; puisque j’appellerai rouge la sensation A et vert la sensation B, tandis que lui appellera la première vert et la seconde rouge. En revanche ce que nous pourrons constater c’est que, pour lui comme pour moi, la cerise et le coquelicot produisent la même sensation, puisqu’il donne le même nom aux sensations qu’il éprouve et que je fais de même. Les sensations sont donc intransmissibles, ou plutôt tout ce qui est qualité pure en elles est intransmissible et à jamais impénétrable. Mais il n’en est pas de même des relations entre ces sensations. À ce point de vue, tout ce qui est objectif est dépourvu de toute qualité et n’est que relation pure. Je n’irai certes pas jusqu’à dire que l’objectivité ne soit que quantité pure (ce serait trop particulariser la nature des relations en question), mais on comprend que je ne sais plus qui se soit laissé entraîner à dire que le monde n’est qu’une équation différentielle. Tout en faisant des réserves sur cette proposition paradoxale, nous devons néanmoins admettre que rien n’est objectif qui ne soit transmissible, et par conséquent que les relations entre les sensations peuvent seules avoir une valeur objective. On dira peut-être que l’émotion esthétique, qui est commune à tous les hommes, est la preuve que les qualités de nos sensations sont aussi les mêmes pour tous les hommes et par là sont objectives. Mais si l’on y réfléchit, on verra que la preuve n’est pas faite ; ce qui est prouvé, c’est que cette émotion est provoquée chez Jean comme chez Pierre par les sensations auxquelles Jean et Pierre donnent le même nom ou par les combinaisons correspondantes de ces sensations ; soit que cette émotion soit associée chez Jean à la sensation A que Jean appelle rouge, tandis que parallèlement elle est associée chez Pierre à la sensation B que Pierre appelle rouge ; soit mieux parce que cette émotion est provoquée, non par les qualités mêmes des sensations, mais par l’harmonieuse combinaison de leurs relations dont nous subissons l’impression inconsciente. Telle sensation est belle, non parce qu’elle possède telle qualité, mais parce qu’elle occupe telle place dans la trame de nos associations d’idées, de sorte qu’on ne peut l’exciter sans mettre en mouvement le « récepteur » qui est à l’autre bout du fil et qui correspond à l’émotion artistique. Qu’on se place au point de vue moral, esthétique ou scientifique, c’est toujours la même chose. Rien n’est objectif que ce qui est identique pour tous ; or on ne peut parler d’une pareille identité que si une comparaison est possible, et peut être traduite en une « monnaie d’échange » pouvant se transmettre d’un esprit à l’autre. Rien n’aura donc de valeur objective que ce qui sera transmissible par le « discours », c’est-à-dire intelligible. Mais ce n’est là qu’un côté de la question. Un ensemble absolument désordonné ne saurait avoir de valeur objective puisqu’il serait inintelligible, mais un ensemble bien ordonné peut n’en avoir non plus aucune, s’il ne correspond pas à des sensations effectivement éprouvées. Il me semble superflu de rappeler cette condition et je n’y aurais pas songé si on n’avait soutenu dernièrement que la physique n’est pas une science expérimentale. Bien que cette opinion n’ait aucune chance d’être adoptée ni par les physiciens, ni par les philosophes, il est bon d’être averti, afin de ne pas se laisser glisser sur la pente qui y mènerait. On a donc deux conditions à remplir, et si la première sépare la réalité  4 du rêve, la seconde la distingue du roman. Maintenant qu’est-ce que la science ? Je l’ai expliqué au § précédent, c’est avant tout une classification, une façon de rapprocher des faits que les apparences séparaient, bien qu’ils fussent liés par quelque parenté naturelle et cachée. La science, en d’autres termes, est un système de relations. Or nous venons de le dire, c’est dans les relations seulement que l’objectivité doit être cherchée ; il serait vain de la chercher dans les êtres considérés comme isolés les uns des autres. Dire que la science ne peut avoir de valeur objective parce qu’elle ne nous fait connaître que des rapports, c’est raisonner à rebours, puisque précisément ce sont les rapports seuls qui peuvent être regardés comme objectifs. Les objets extérieurs, par exemple, pour lesquels le mot objet a été inventé, sont justement des objets et non des apparences fuyantes et insaisissables parce que ce ne sont pas seulement des groupes de sensations, mais des groupes cimentés par un lien constant. C’est ce lien, et ce lien seul qui est objet en eux, et ce lien c’est un rapport. Donc quand nous demandons quelle est la valeur objective de la science, cela ne veut pas dire : la science nous fait-elle connaître la véritable nature des choses ? mais cela veut dire ; nous fait-elle connaître les véritables rapports des choses ? À la première question, personne n’hésiterait à répondre, non ; mais je crois qu’on peut aller plus loin : non seulement la science ne peut nous faire connaître la nature des choses ; mais rien n’est capable de nous la faire connaître et si quelque dieu la connaissait, il ne pourrait trouver de mots pour l’exprimer. Non seulement nous ne pouvons deviner la réponse, mais si on nous la donnait, nous n’y pourrions rien comprendre ; je me demande même si nous comprenons bien la question. Quand donc une théorie scientifique prétend nous apprendre ce qu’est la chaleur, ou que l’électricité, ou que la vie, elle est condamnée d’avance ; tout ce qu’elle peut nous donner, ce n’est qu’une image grossière. Elle est donc provisoire et caduque. La première question étant hors de cause, reste la seconde. La science peut-elle nous faire connaître les véritables rapports des choses ? Ce qu’elle rapproche devrait-il être séparé, ce qu’elle sépare devrait-il être rapproché ? Pour comprendre le sens de cette nouvelle question, il faut se reporter à ce que nous avons dit plus haut sur les conditions de l’objectivité. Ces rapports ont-ils une valeur objective ? cela veut dire : ces rapports sont-ils les mêmes pour tous ? seront-ils encore les mêmes pour ceux qui viendront après nous ? Il est clair qu’ils ne sont pas les mêmes pour le savant et pour l’ignorant. Mais peu importe, car si l’ignorant ne les voit pas tout de suite, le savant peut arriver à les lui faire voir par une série d’expériences et de raisonnements. L’essentiel est qu’il y a des points sur lesquels tous ceux qui sont au courant des expériences faites peuvent se mettre d’accord. La question est de savoir si cet accord sera durable et s’il persistera chez nos successeurs. On peut se demander si les rapprochements que fait la science d’aujourd’hui seront confirmés par la science de demain. On ne peut pour affirmer qu’il en sera ainsi invoquer aucune raison a priori ; mais c’est une question de fait, et la science a déjà assez vécu pour qu’en interrogeant son histoire, on puisse savoir si les édifices qu’elle élève résistent à l’épreuve du temps ou s’ils ne sont que des constructions éphémères. Or que voyons-nous ? Au premier abord il nous semble que les théories ne durent qu’un jour et que les ruines s’accumulent sur les ruines. Un jour elles naissent, le lendemain elles sont à la mode, le surlendemain elles sont classiques, le troisième jour elles sont surannées et le quatrième elles sont oubliées. Mais si l’on y regarde de plus près, on voit que ce qui succombe ainsi, ce sont les théories proprement dites, celles qui prétendent nous apprendre ce que sont les choses. Mais il y a en elles quelque chose qui le plus souvent survit. Si l’une d’elles nous a fait connaître un rapport vrai, ce rapport est définitivement acquis et on le retrouvera sous un déguisement nouveau dans les autres théories qui viendront successivement régner à sa place. Ne prenons qu’un exemple : la théorie des ondulations de l’éther nous enseignait que la lumière est un mouvement ; aujourd’hui la mode favorise la théorie électromagnétique qui nous enseigne que la lumière est un courant. N’examinons pas si on pourrait les concilier et dire que la lumière est un courant, et que ce courant est un mouvement ? Comme il est probable en tout cas que ce mouvement ne serait pas identique à celui qu’admettaient les partisans de l’ancienne théorie, on pourrait se croire fondé à dire que cette ancienne théorie est détrônée. Et pourtant, il en reste quelque chose, puisque entre les courants hypothétiques qu’admet Maxwell, il y a les mêmes relations qu’entre les mouvements hypothétiques qu’admettait Fresnel. Il y a donc quelque chose qui reste debout et ce quelque chose est l’essentiel. C’est ce qui explique comment on voit les physiciens actuels passer sans aucune gêne du langage de Fresnel à celui de Maxwell. Sans doute bien des rapprochements qu’on croyait bien établis ont été abandonnés, mais le plus grand nombre subsiste et paraît devoir subsister. Et pour ceux-là alors, quelle est la mesure de leur objectivité ? Eh bien, elle est précisément la même que pour notre croyance aux objets extérieurs. Ces derniers sont réels en ce que les sensations qu’ils nous font éprouver nous apparaissent comme unies entre elles par je ne sais quel ciment indestructible et non par un hasard d’un jour. De même la science nous révèle entre les phénomènes d’autres liens plus ténus mais non moins solides ; ce sont des fils si déliés qu’ils sont restés longtemps inaperçus mais dès qu’on les a remarqués, il n’y a plus moyen de ne pas les voir ; ils ne sont donc pas moins réels que ceux qui donnent leur réalité aux objets extérieurs ; peu importe qu’ils soient plus récemment connus puisque les uns ne doivent pas périr avant les autres. On peut dire par exemple que l’éther n’a pas moins de réalité qu’un corps extérieur quelconque ; dire que ce corps existe, c’est dire qu’il y a entre la couleur de ce corps, sa saveur, son odeur, un lien intime, solide et persistant, dire que l’éther existe, c’est dire qu’il y a une parenté naturelle entre tous les phénomènes optiques, et les deux propositions n’ont évidemment pas moins de valeur l’une que l’autre. Et même les synthèses scientifiques ont en un sens plus de réalité que celles du sens commun, puisqu’elles embrassent plus de termes et tendent à absorber en elles les synthèses partielles. On dira que la science n’est qu’une classification et qu’une classification ne peut être vraie, mais commode. Mais il est vrai qu’elle est commode, il est vrai qu’elle l’est non seulement pour moi, mais pour tous les hommes ; il est vrai qu’elle restera commode pour nos descendants ; il est vrai enfin que cela ne peut pas être par hasard. En résumé, la seule réalité objective, ce sont les rapports des choses d’où résulte l’harmonie universelle. Sans doute ces rapports, cette harmonie ne sauraient être conçus en dehors d’un esprit qui les conçoit ou qui les sent. Mais ils sont néanmoins objectifs parce qu’ils sont, deviendront, ou resteront communs à tous les êtres pensants. Cela va nous permettre de revenir sur la question de la rotation de la Terre ce qui nous fournira en même temps l’occasion d’éclaircir ce qui précède par un exemple. § 7. — LA ROTATION DE LA TERRE « ... Dès lors, ai-je dit dans Science et Hypothèse, cette affirmation la Terre tourne n’a aucun sens... ou plutôt ces deux propositions, la Terre tourne, et, il est plus commode de supposer que la Terre tourne, ont un seul et même sens. » Ces paroles, ont donné lieu aux interprétations les plus étranges. On a cru y voir la réhabilitation du système de Ptolémée, et peut-être la justification de la condamnation de Galilée. Ceux qui avaient lu attentivement le volume tout entier ne pouvaient cependant s’y tromper. Cette vérité, la Terre tourne, se trouvait mise sur le même pied que le postulatum d’Euclide par exemple ; était-ce là la rejeter. Mais il y a mieux ; dans le même langage on dira très bien : ces deux propositions, le monde extérieur existe, ou, il est plus commode de supposer qu’il existe, ont un seul et même sens. Ainsi l’hypothèse de la rotation de la Terre conserverait le même degré de certitude que l’existence même des objets extérieurs. Mais après ce que nous venons d’expliquer dans la quatrième partie, nous pouvons aller plus loin. Une théorie physique, avons-nous dit, est d’autant plus vraie, qu’elle met en évidence plus de rapports vrais. À la lumière de ce nouveau principe, examinons la question qui nous occupe. Non, il n’y a pas d’espace absolu ; ces deux propositions contradictoires : « la Terre tourne » et « la terre ne tourne pas » ne sont donc pas cinématiquement plus vraies l’une que l’autre. Affirmer l’une, en niant l’autre, au sens cinématique, ce serait admettre l’existence de l’espace absolu. Mais si l’une nous révèle des rapports vrais que l’autre nous dissimule, on pourra néanmoins la regarder comme physiquement plus vraie que l’autre, puisqu’elle a un contenu plus riche. Or à cet égard aucun doute n’est possible. Voilà le mouvement diurne apparent des étoiles, et le mouvement diurne des autres corps célestes, et d’autre part l’aplatissement de la Terre, la rotation du pendule de Foucault, la giration des cyclones, les vents alizés, que sais-je encore ? Pour le Ptoléméien, tous ces phénomènes n’ont entre eux aucun lien ; pour le Copernicien, ils sont engendrés par une même cause. En disant, la Terre tourne, j’affirme que tous ces phénomènes ont un rapport intime, et cela est vrai, et cela reste vrai bien qu’il n’y ait pas et qu’il ne puisse y avoir d’espace absolu. Voilà pour la rotation de la Terre sur elle-même ; que dire de sa révolution autour du Soleil. Ici encore, nous avons trois phénomènes qui pour le Ptoléméien sont absolument indépendants et qui pour le Copernicien sont rapportés à la même origine ; ce sont les déplacements apparents des planètes sur la sphère céleste, l’aberration des étoiles fixes, la parallaxe de ces mêmes étoiles. Est-ce par hasard que toutes les planètes admettent une inégalité dont la période est d’un an, et que cette période est précisément égale à celle de l’aberration, précisément égale encore à celle de la parallaxe ? Adopter le système de Ptolémée, c’est répondre oui ; adopter celui de Copernic c’est répondre non ; c’est affirmer qu’il y a un lien entre les trois phénomènes et cela encore est vrai bien qu’il n’y ait pas d’espace absolu. Dans le système de Ptolémée, les mouvements des corps célestes ne peuvent s’expliquer par l’action de forces centrales, la Mécanique Céleste est impossible. Les rapports intimes que la Mécanique Céleste nous révèle entre tous les phénomènes célestes sont des rapports vrais ; affirmer l’immobilité de la Terre, ce serait nier ces rapports, ce serait donc se tromper. La vérité, pour laquelle Galilée a souffert, reste donc la vérité, encore qu’elle n’ait pas tout à fait le même sens que pour le vulgaire, et que son vrai sens soit bien plus subtil, plus profond et plus riche. § 8. — LA SCIENCE POUR LA SCIENCE Ce n’est pas contre M. Le Roy que je veux défendre la Science pour la Science ; c’est peut-être ce qu’il condamne, mais c’est ce qu’il cultive, puisqu’il aime et recherche la vérité et qu’il ne saurait vivre sans elle. Mais j’ai quelques réflexions à faire. Nous ne pouvons connaître tous les faits et il faut choisir ceux qui sont dignes d’être connus. Si l’on en croyait Tolstoï, les savants feraient ce choix au hasard, au lieu de le faire, ce qui serait raisonnable, en vue des applications pratiques. Les savants, au contraire, croient que certains faits sont plus intéressants que d’autres, parce qu’ils complètent une harmonie inachevée, ou parce qu’ils font prévoir un grand nombre d’autres faits. S’ils ont tort, si cette hiérarchie des faits qu’ils postulent implicitement, n’est qu’une illusion vaine, il ne saurait y avoir de Science pour la Science, et par conséquent il ne saurait y avoir de Science. Quant à moi, je crois qu’ils ont raison, et, par exemple, j’ai montré plus haut quelle est la haute valeur des faits astronomiques, non parce qu’ils sont susceptibles d’applications pratiques, mais parce qu’ils sont les plus instructifs de tous. Ce n’est que par la Science et par l’Art que valent les civilisations. On s’est étonné de cette formule : la Science pour la Science ; et pourtant cela vaut bien la vie pour la vie, si la vie n’est que misère ; et même le bonheur pour le bonheur, si l’on ne croit pas que tous les plaisirs sont de même qualité, si l’on ne veut pas admettre que le but de la civilisation soit de fournir de l’alcool aux gens qui aiment à boire. Toute action doit avoir un but. Nous devons souffrir, nous devons travailler, nous devons payer notre place au spectacle, mais c’est pour voir ; ou tout au moins pour que d’autres voient un jour. Tout ce qui n’est pas pensée est le pur néant ; puisque nous ne pouvons penser que la pensée et que tous les mots dont nous disposons pour parler des choses ne peuvent exprimer que des pensées ; dire qu’il y a autre chose que la pensée, c’est donc une affirmation qui ne peut avoir de sens. Et cependant — étrange contradiction pour ceux qui croient au temps — l’histoire géologique nous montre que la vie n’est qu’un court épisode entre deux éternités de mort, et que, dans cet épisode même, la pensée consciente n’a duré et ne durera qu’un moment. La pensée n’est qu’un éclair au milieu d’une longue nuit. Mais c’est cet éclair qui est tout.   Notes [←1] Au lieu de dire que nous rapportons l’espace à des axes invariablement liés à notre corps, peut-être vaudrait-il mieux dire, conformément à ce qui précède, que nous le rapportons à des axes invariablement liés à la situation initiale de notre corps. [←2] Car les corps opposeraient une inertie croissante aux causes qui tendraient à accélérer leur mouvement ; et cette inertie deviendrait infinie quand on approcherait de la vitesse de la lumière. [←3] Ces considérations sur la Physique Mathématique sont empruntées à la Conférence faite à Saint-Louis. [←4] J’emploie ici le mot réel comme synonyme d’objectif ; je me conforme ainsi à l’usage commun ; j’ai peut-être tort, nos rêves sont réels, mais ils ne sont pas objectifs.
Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et Il s'était demandé en effet : "Comment faire en sorte que tous les hommes Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
An Exploration Of Calculating The Packet Loss Rate By Using The Block Rate Fan Bu* School of Software Engineering State Key Laboratory of Networking and Switching Technology Beijing University of Posts and Telecommunications *Corresponding author Abstract—This electronic document is about New estimation method for link packet loss rate .An intermediate quantity is deduced from the block rate, Through this intermediate quantity to further solve the packet loss rate. So the probability that a single wavelength cannot be transmitted successfully is called the blocking rate can be solved .Results are as follows: ܥ଴ൌ1െܲλ ൌ1െሺ1െܥ௞ሻு (2) 3rd International Conference on Communications, Information Management and Network Security (CIMNS 2018)Copyright © 2018, the Authors. Advances in Computer Science Research, volume 65147So the probability that all wavelengths cannot be transmitted successfully is called the blocking rate can be solved .Results are as follows: ܥଵൌሺ1ܲ —λሻ ௪ൌሺ1െሺ1െܥ௞ሻுሻ ௪ (3) w represents the number of wavelength categories contained in each link B. Solution Method 2 Let's solve the block rate the other way, We break up the whole link network into countless point-to-point connections. SOLVE THE PACKET LOSS RATE IN LINKS WITHOUT WAVELENGTH CONVERTER After Before starting, we should first test the specific transmission efficiency of the link. But at the same time, we are forced to use links with higher packet loss rates, as the higher ranked wavelengths may have been consumed by previous transmissions. SOLVE THE PACKET LOSS RATE WITH WAVELENGTH CONVERTER LINK When we analyze the packet loss rate, we can convert the calculation of the packet loss rate in the whole transmission process into partial packet loss rate.
An Exploration Of Calculating The Packet Loss Rate By Using The Block Rate Fan Bu* School of Software Engineering State Key Laboratory of Networking and Switching Technology Beijing University of Posts and Telecommunications *Corresponding author Abstract—This electronic document is about New estimation method for link packet loss rate .An intermediate quantity is deduced from the block rate, Through this intermediate quantity to further solve the packet loss rate. Keywords—network; links; WDM; packet loss rate I. INTRODUCTION In recent years, with the increasing expansion of computer network scale, the unstable factors in the network are increasing under the influence of equipment diversity and network complexity. At the same time, network traffic has increased sharply, and various new businesses, such as video conference, video on demand, P2P, etc., are also devouring network resources at an extremely fast speed. The measurement of network performance becomes more and more important. ሾଵሿTherefore, it is necessary to estimate the probability of information transmission instability before infrastructure construction. Therefore, we introduce a new variable to reflect the probability of such instability, which is called the packet loss rate. Packet Loss Rate refers to the ratio of the number of packets lost in the test to the data group sent. The calculation method is: [(incoming message - output message)/ incoming message]*100%. ሾଶሿ However, in practical applications, such estimation usually takes place before the construction of the entire network, so it is required that we can successfully estimate the packet loss rate by relying on some parameters in the network. In the usual calculation, direct logical calculation is used to estimate the packet loss rate of the entire network. In some cases in our usual application, the measurement of the blocking rate may be compared with the measurement of the loss rate, so this paper tries to propose a new method to estimate the loss rate using the reverse blocking rate. II. MODEL ANALYSIS A. Selecting a Template A key feature of the multicast communication model is the multicast group that provides indirect identification. Neither sender nor receiver needs to know the other party's specific conditions. The sender only needs to send the packet to a multicast address and the receiver only needs to tell the network that it wants to receive the packet that sent it. Therefore, the transmission information of multicast network can be considered as the transmission of two unicast model segments. Therefore, the packet loss rate is considered as unicast model in this paper. B. Considering the Situation of link Network In the process of measuring the packet loss rate, The basis is to consider the current link network situation. The link network model analyzed in this paper is WDM model. We abstract it as follows, Any two nodes are connected by a link that determines the number of bars (k bars). Each of these links has a certain number of (w kinds) wavelengths to transmit, A wavelength converter that can be applied between partial wavelengths is set up at some of the nodes. Because of the difficulty of directly analyzing the converter with wavelength conversion, Therefore, this paper adopts the method of analyzing the condition without wavelength converter first. C. Reference Auxiliary Variables The probability of k paths where the wavelength is a certain value (λ) and between two certain nodes (i, j) all being blocked (This variable are recorded as C୩). III. SOLVE THE UXILIARY VARIABLES BY THE BLOCK RATE Calculate the value of the auxiliary variables use the method which is in the link without wavelength converter, solve the block rate by two methods. A. Solution Method 1 So, first of all, we're going to use C୩to figure out what the block rate is. The probability that use the determined wavelength passes smoothly between all nodes can be solved. Results are as follows. ܲλൌሺ1െܥ௞ሻு (1) is the probability of k paths where the wavelength is a certain value (λ) and between two certain nodes(i ,j) all being blocked. H+1 represents the number of nodes that need to pass through for transmission. So the probability that a single wavelength cannot be transmitted successfully is called the blocking rate can be solved .Results are as follows: ܥ଴ൌ1െܲλ ൌ1െሺ1െܥ௞ሻு (2) 3rd International Conference on Communications, Information Management and Network Security (CIMNS 2018)Copyright © 2018, the Authors. Published by Atlantis Press. This is an open access article under the CC BY-NC license (http://creativecommons.org/licenses/by-nc/4.0/). Advances in Computer Science Research, volume 65147So the probability that all wavelengths cannot be transmitted successfully is called the blocking rate can be solved .Results are as follows: ܥଵൌሺ1ܲ —λሻ ௪ൌሺ1െሺ1െܥ௞ሻுሻ ௪ (3) w represents the number of wavelength categories contained in each link B. Solution Method 2 Let's solve the block rate the other way, We break up the whole link network into countless point-to-point connections. In this way, we first need to consider: network load on certain connection ( denote asL୧୨) : ܮ௜௝ൌ∑ோೞ೏ೞ,೏సబ௞ (4) {} is represented call arrival rate per unit time from node s to node d, When s is equal to d ܴ௦ௗൌ0,therefore ∑ܴ௦ௗ௦,ௗୀ଴represent all links in the total arrival rate. k is the number of links between two nodes. We can derive from these inferences that in the case of just using some certain wavelength, he probability of successful response to the call isܮ పఫതതതത. In turn, we can obtain that the probability that the optical path is successfully established when a signal is applied to transmit from i to j is: fሺi,jሻൌ1െሺ1െ∑ܮపఫതതതത௪௜,௝ୀଵሻ௞ (5) Then the light path cannot be successfully established, that also is the probability of blocking is: ܥ௜௝ൌ1െ݂ሺ݆,݅ሻ (6) So we can then figure out what the block rate is: ܥଵൌ∑ோೞ೏஼೔ೕೞ,೏సభ∑ோೞ೏ೞ,೏సబ (7) C. Simultaneous Exploration Simultaneous equation: ∑ோೞ೏஼೔ೕೞ,೏సభ∑ோೞ೏ೞ,೏సబܥൌଵൌሺ1— ܲఒሻ ௪ൌሺ1െሺ1െܥ௞ሻுሻ ௪ (8) Therefore, we can calculate the expression of: ܥ௞ൌ1െඨሺ1െ ට∑ோೞ೏஼೔ೕೞ,೏సభ∑ோೞ೏ೞ,೏సబೢሻಹ (9) IV. SOLVE THE PACKET LOSS RATE IN LINKS WITHOUT WAVELENGTH CONVERTER After Before starting, we should first test the specific transmission efficiency of the link. The performance of multiple optical fibers is measured and averaged to obtain data. The packet loss rate of each wavelength was recorded asܲሼଵܲ,ଶܲ,ଷܲସܲ,ହ.......ܲ௪ሽ. To correspond {ߣଵߣ,ଶߣ,ଷߣ ସ,........ߣ௪} these several wave length. And to make it easier to write, we're going to rearrange the probabilities of these packets in order from small to large. Get a new set of data {ܲଵܲ,ଶܲ,ଷܲସܲ,ହ.......ܲ௪}.and{ߣଵߣ,ଶߣ,ଷߣ ସ,........ߣ௪} . A. Allocation Algorithm Analysis In a network without wavelength converters, Information is transmitted at a certain wavelength. on this occasion, It is necessary that we first define the most reasonable method of wavelength assignment. We analyze the implementation of the wavelength selection algorithm. First, the packet loss rate of this wavelength must be the lowest under the current situation. But at the same time, we are forced to use links with higher packet loss rates, as the higher ranked wavelengths may have been consumed by previous transmissions. Therefore, the main content of this algorithm is to select the wavelength with the lowest packet loss rate from the current available wavelength to complete the transmission ሾଷሿ. B. The Specific Calculation In this algorithm, we first analyze the probability of each wavelength being enabled. The probability that all the transmission channels of other wavelengths prior to the ߣ௜ wavelength between the two nodes are occupied is: ܥ௜ܥൌሺ௞ሻ௜ିଵሺ1െܥ௞ሻ (10) The probability that the transmission channel which precedes the other wavelength of wave length ߣ௜ between two nodes is not occupied is: ܥ௜ൌ1െሺܥ௞ሻ௜ିଵሺ1െܥ௞ሻ (11) Therefore, we can obtain the probability that the transmission channel of all the nodes is occupied before the wavelength of ߣ௜ : ܥ௜ൌ∑ ሺܥሺ௞ሻ௜ିଵሺ1െܥ௞ሻሻ௝ሺ1െሺܥ௞ሻ௜ିଵሺ1െܥ௞ሻሻுି௝ ுିଵ௝ୀଵ (12) ܥ௜ൌ ሾሺܥሺ௞ሻ௜ିଵሺ1െܥ௞ሻሻ൅1െሺܥ௞ሻ௜ିଵሺ1െ ܥ௞ሻሿுെሺ1െሺܥ௞ሻ௜ିଵሺ1െܥ௞ሻሻு (13) Transformation from (12) to (13) use knowledge of binomial theorem. Therefore, the packet loss rate is: ܦ௥ൌ∑ܥ௜ܲ∗௜௪௜ୀଵ (14) V. SOLVE THE PACKET LOSS RATE WITH WAVELENGTH CONVERTER LINK When we analyze the packet loss rate, we can convert the calculation of the packet loss rate in the whole transmission process into partial packet loss rate. Separate by the wavelength converter in the link, ensuring that each separate part has no Advances in Computer Science Research, volume 65148wavelength converter in between so that each small segment can be processed into a simple part without wavelength converter. So the number of nodes that have each segment going through is {ܪଵ൅1,ܪଶ൅1,ܪଷ൅1,ܪସ൅1..................ܪ௠൅1}( The number of segments divided is denoted as m) In this way, we can obtain the packet loss rate of the whole link. Then the probability that the wavelength occupied before λ୧ in the j segment is: ܥ௜௝ൌ ሾሺܥሺ௞ሻ௜ିଵሺ1െܥ௞ሻሻ൅1െሺܥ௞ሻ௜ିଵሺ1െܥ௞ሻሿுೕെሺ1െሺܥ௞ሻ௜ିଵሺ1െܥ௞ሻሻுೕ (15) Therefore, the packet loss rate of each small segment is: ܦ௥௝ൌ∑ܥ௜௝ܲ∗௜௪௜ୀଵ (16) The packet loss rate can be obtained as follows: ܦ௥ൌ∏ܦ௥௝௠௝ୀଵ (17) VI. TEST THE RESULTS The calculated results obtained by the algorithm in this paper are compared with the actual results to solve the variance. The results are as figure I: FIGURE I. RESULTS OF TWO SIMULATION EXPERIMENTS. REFERENCES [1] [US] James F. Kurose [US]Keith W. Ross ,Computer network (edition 5), China Machine Press [2] Zhongyuan Jiang, Mangui Liang, analysis and optimization of transmission capacity of complex network,9787512124745. [3] [Singapore]Tracey Ho [Aus]Desmond S. Lun ,Introduction to network coding China Machine Press [4] Department of mathematics, tongji university, Advanced mathematics (7th edition),Higher Education Press Advances in Computer Science Research, volume 65149
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants.
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants.
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants.
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Après cela, une analyse détaillée des algorithmes élaborés pour l’identification des systèmes est réalisée pour finalement déboucher sur deux choses: l’étude des techniques permettant d’optimiser au maximum les algorithmes et le choix d’un algorithme particulièrement adapté aux systèmes annulateurs d’écho (on a choisi leBPNLMS++). Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). Ainsi, on peut facilement, grâce à ce filtre, modéliser l’écho d’un signal en entrée, et le soustraire du signal global à transmettre comme réponse à l’émetteur, pour que ce dernier ne puisse pas recevoir une réplique du signal qu’il a émis (l’écho est ainsi supprimé). 5 sur 84 Chapitre 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.1 Introduction partielle L’un des moyens permettant de se faciliter la tâche de manipulation du son, consiste à le voir comme une fonction mathématique (bien que non modélisable comme tel de manière rigoureuse). Cela nous permet de le traiter comme un signal parmi tant d’autres et ainsi avoir le droit d’y appliquer des résultats élaborés pour cet effet dans le cadre d’une discipline nommée traitement du signal. C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. Ce qui donne: s(t) = n ∑ i=1 α i f i (t)(1.1) Cette représentation des signaux est très capitale car elle facilite l’analyse du signal ainsi représenté et permet d’aborder le traitement numérique du signal. En effet, le traitement numérique d’un signal ne peut être envisagé que s’il est discrétisé or, la manière donts(t)est écrit en 1.1 suggère qu’il peut se voir comme un vecteur dont les composantes sont lesα i , ce qui le rend en fait discret. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Par analogie on a que la norme de s(t) est sur une périodeτ: ‖s(t)‖ 2 = √ ∫ τ |s(t)| 2 dt(1.3) L’expression 1.3 signifie que les signaux doivent être à carré intégrable. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. Par conséquent,la représentation fréquentielle des 1 (t)est un spectre des raies et la distance entre raies adjacentes vaut f 1 = 1 T étant donné que le développement en série de Fourier suggère que toutes les fréquences, 2 Évidemment, si ladite fonction est à carré sommable, c’est-à-dire si son carré a une intégrale finie. La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Les signaux aléatoires sont donc en bref des signaux dont la valeur instantanée est imprévisible, ce qui implique qu’ils n’ont pas de représentation analytique. Cela permet ainsi de voir le signal comme une suite de nombres et en permet le traitement par un ordinateur ou tout autre système de traitement des données. Avant de considérer ce problème, définissons l’impulsion de Dirac qui nous sera très utile pour la suite du travail même si elle n’est pas physiquement réalisable de manière parfaite car elle est idéale. Formellement, il est défini par: ∫ +∞ −∞ δ(t)dt= 1(1.15) 3 C’est l’une de manières les plus simples de discrétiser un signal 4 De manière tout à fait générale, sans prendre en compte dans un premier temps la causalité (c’est-à-dire le fait selon lequel le temps doit uniquement être pris positif) 14 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.3 Filtrage 1.3.1 Introduction Introduisons juste une opération qui nous sera très utile dans la suite. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. Soients(nT e )le signal d’excitation que nous noterons justes(n)par commodité(comme pour tous les autres signaux échantillonnés considérés dans ce paragraphe),y(n)signal qu’on voudrait obtenir à la sortie du système (entaché de bruit normalement),e(n)le bruit inconnu,y w (n)le signal modélisé à l’aide des paramètres du filtre,ε(n)l’écart entrey(n)ety w (n). Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Au vu de ce dont nous avons parlé dans les sections précédentes, la solution est d’étudier la fonction de transfert associée à l’enceinte considérée et de recourir au filtrage adaptatif pour une prise en compte efficace de l’évolution temporelle du système. En effet, il facilite les manipulations à effectuer sur les signaux, en facilite l’étude théorique et surtout, est plus adaptable aux divers systèmes de traitement des données existant, tout en étant moins sensible aux caprices de la nature (insensibilité du signal, dès qu’il est numérisé, aux perturbations de l’appareillage). Pour cela, le concept a été illustré par le filtre de Wiener (filtre en général non utilisable pour le son car restreint aux signaux stationnaires), très crucial pour le développement du filtrage adaptatif proprement-dit qui est abordé dans le chapitre qui suit. 24 sur 84 Chapitre 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.1 Introduction partielle Le traitement du signal sonore doit être minutieusement réalisé car les effets d’un mauvais traitement sont facilement perceptibles. C’est ainsi que nous présentons, en premier lieu, divers algorithmes de filtrage conçus principalement avec comme objectif d’aboutir à une possibilité d’annuler l’écho d’un signal sonore. En second lieu, nous abordons un type de transformation numérique particulier, la transformée en nombres de Fermat, qui constitue un substitut valable à la transformation de Fourier discrète dans des situations où il est impérieux de réduire la complexité de calcul des algorithmes élaborés. Pour cela nous avons parlé du filtre de Wiener qui, bien que n’étant utilisable qu’en cas des signaux stationnaires, nous permet d’aborder de manière claire et succincte le filtrage adaptatif. Pour les signaux non stationnaires, il est difficile de suivre les variations du signal d’entrée avec l’adaptation du filtre par l’algorithme LMS et cela donne une convergence lente. Pour limiter le nombre des calculs, l’équation à utiliser, et qui constitue l’algorithme RLS, est la suivante: W k+1 =W k +R −1 ss k S k ε k (2.15) Et dans cette formule, le calcul deR −1 ss k se fait par: R −1 ss k = 1 δ [R −1 ss k−1 − R −1 ss k−1 .S T k .R −1 ss k−1 δ+S T k .R −1 ss k−1 .S k ](2.16) AvecR ss 0 = 1 δ .I p avecI p matrice unité de dimensionp×p,δ∈]0,1[etW 0 ≡vecteur nul de dimensionp. Pour cela, une transformation tout à fait particulière nous sera utile; il faudra juste qu’elle ait les mêmes propriétés qu’une transformation de Fourier (surtout en ce qui concerne la convolution) et qu’elle rende les calculs 31 sur 84 CHAPITRE 2. On aura enfin que: y(n) =                v(n)pour0≤n < M 2 〈u(n)−w(n)〉 F t pour M 2 ≤n < M 〈u(n−M)−v(n−M)〉 F t pourM≤n < 3M 2 w(n)pour 3M 2 ≤n <2M A la différence du calcul de convolution usuel qui demande dans le pire des cas 3 transformées en nombres entiers de longueur2M, cet algorithme exige plutôt7transformées de longueurM et cela est plus avantageux en terme de minimisation du nombre d’opérations complexes (les multiplications). Les coefficients du produit deAetB sont alors donnés par: c ij =r M 2 −M+i+jM 2 Une convolution faite après FNT tout en appliquant les méthodes rapides et optimales mentionnées dans les parties précédentes permet de réaliser le produit des matrices avec moins deM 3 opérations complexes (multiplications) comme c’est le cas pour une multiplication par la méthode classique. Cette manière de faire sera très utile pour la suite car, avec ce qui est introduit à la section suivante on se rend copte qu’on aura plus besoin de manipuler régulièrement des matrices et des produits de convolution. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences). La définition que nous venons de donner pourS k est plus valable si on se base sur une compréhension brute du concept des blocs. La sortie qui est obtenue par convolution du signal en entréeS(n)par la réponse impulsionnelle du filtre sera finalement écrite de manière globale sur le bloc comme suit: y w k =         s(kN)s(kN−1)···s(kN−p+ 1) s(kN+ 1)s(kN)···s(kN−p+ 2) . Sachant queS(j)répond à sa définition donnée à la fin du premier chapitre, les coefficients du filtre seront mis à jour grâce à: W k+1 =W k − 1 2 λ∇(ε T k ε k ) =W k − 1 2 λ ∂(ε T k ε k ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (ε(j)) 2 ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (y(j)−S(j) T W k ) 2 ) ∂W k =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN (y(j)−S(j) T W k )(S(j) T )} =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN S(j)ε(j)} =W k +λR T k ε k Et la formule ainsi obtenue peut être réécrite sous la forme d’une convolution car: R T k ε k = (k+1)N−1 ∑ j=kN S(j)ε(j)} ⇒(R T k ε k ) i = (k+1)N−1 ∑ j=kN ε(j)s(j−i) =ε(i)∗s(−i) 40 sur 84 2.4. Les deux manipulations qui précèdent seront perpétuées partout où cela sera possible, pour transformer les expressions sous la forme de produit de convolution afin d’appliquer toutes les belles propriétés de la convolution discrète, en terme de réduction du temps de calcul principalement, par utilisation de la transformée rapide (en nombres de Fermat pour notre cas). L’algorithme qui nous intéresse étant lePNLMS++, à cause de ses propriétés présentées au premier chapitre, la version par blocs (le BPNLMS++) sera donnée par: • Pour la partie paire (correspondant auBNLMS), W k+1 =W k + λ R ss (k) +β (ε k ∗S −k )(2.29) AvecR ss (k)la fonction d’autocorrélation du signal, soitS k ∗S −k . ÉTUDE THÉORIQUE DU FILTRAGE DU SON Dans la mise en oeuvre pratique de ces algorithmes, tous les éléments seront adaptés de manière à avoir des formes correctes (par ajout des zéros aux vecteurs le nécessitant et suppression de l’erreur ainsi introduite, à la fin des calculs). REMARQUES: Il faudra impérativement noter que les formules ici mentionnées, qui de toute évidence correspondent respectivement au processus de mise à jour des coefficients du filtre dans le cadre duBNLMSet duBPNLMS, ne sont que formelles.En effet, au sens mathématique strict elles ne seront pas valables au vu des dimensions des termes (pour s’en convaincre, il faut noter qu’après formatage des résultats,R ss (k)est de taillep×1,on ne prend que sespderniers termes, donc on ne peut pas l’additionner àβqui est un scalaire mais aussiG k étant une matrice de taillep×p, on aura aussi queG k R ss (k)est de taillep×1et donc même conclusion).Cette notation formelle signifie juste que, pour chaque itération, on calculer le vecteur de taillepdu numérateur et l’autre du dénominateur et le termew k (i)correspondra au résultat obtenu en appliquant la formule mais ayant considéré uniquement les termes numéroide chaque vecteur présent (au numérateur et au dénominateur).Nous y revenons plus clairement lors de l’élaboration de l’algorithme. Néanmoins, envisager une implantation plus optimale sur les processeurs de traitement du signal, nous permet de remarquer l’utilité d’introduire la transformée en nombres de Fermat, qui permet de réduire la consommation en ressources qui serait inutilement énorme en cas d’un traitement numérique classique. Le traitement dans le domaine de Fermat, allié à une manipulation des séquences par bloc de données, permet de réduire de manière assez sensible la complexité de calcul des algorithmes mis au point. CONCEPTION DU FILTRE MIXTE ADAPTÉ Par ce qui précède on aura de toute évidence une sortie discrète du fait que les conversions sont réalisées à chaque arrivée d’un échantillon. Mais son jeu d’instructions est élaboré de manière à exécuter des opérations très courantes dans des algorithmes de traitement du signal les plus usuels. Il s’avère alors indubitable que, comme le traitement que nous mettons au point est un filtrage, avec comme objectif l’annulation d’écho sonore, cette partie (le traitement) suffit pour tirer des conclusions pertinentes sur le système et pour envisager (projet à long terme selon la demande ou le besoin) finalement une production du matériel conçu selon ce travail. Sur base de cela, nous aurons les étapes de l’algorithme : 1°)Acquisition et préparation du signal à manipuler; 2°)Écriture des fonctions qui réalisent la FNT et son inverse Après extraction du signal, nous pourrons être amenés à effectuer une transformée en nombres de Fermat sur le vecteur constitué des échantillons. Ainsi, comme mentionné à la sous-section 1.3.1, le signal d’écho obtenu dans l’enceinte considérée peut bel et bien aussi s’obtenir,dans les mêmes conditions, par convolution du signal d’entrée avec le vecteur formé des coefficients du filtre ainsi construit. Il est très important de signaler que bien que les étapes décrites lors de l’élaboration textuelle de l’algorithme soient faites pour le cas d’un traitement par FNT etpour un processeur à virgule fixe fonctionnant sous16bits, le fait que nous ayons utilisé un processeur sous64bitset la transformée de Fourier est tout à fait admissible. CONCEPTION DU FILTRE MIXTE ADAPTÉ termes par une matrice particulièreE(comme nous le suggère le point3en son étape17de la sous- section 3.3.1 sur les étapes de l’algorithme),Matlabnous permet d’extraire très simplement ces derniers termes. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.19: Coefficients du filtre 1 pour 4370 itérations L’algorithme de traitement échantillon par échantillon donne des très bons coefficients mais après beaucoup d’itérations (i= 4370) et trop de temps (3.296686secondespour notre cas). 3.5 Analyse des résultats et explication de l’implantation sur DSP 3.5.1 Analyse des résultats Ce que nous venons d’obtenir à la sous-section 3.4.3 est très crucial pour remarquer la puissance du traitement par blocs. Le second, celui obtenu grâce à l’algorithme de traitement par blocs et dont l’évolution des coefficients est représentée en ordre par les figures 3.12 puis 3.14 ensuite 3.16 et finalement 3.18, est moins précis mais nettement plus robuste que le premier. Pour cela, on n’a que deux choses particulières à réaliser: • Formater le signal d’entrée de manière à l’adapter au processeur si nécessaire et • Ecrire une fonction qui réalise la transformée en nombres de Fermat tel qu’on l’a décrite et opltimisé dans les parties précédentes ainsi que son inverse. Après avoir réalisé cela, le code sera exactement le même que celui qui a été élaboré pour le traitement par blocs en se basant sur l’esquisse qui a été faite de l’algorithme au point 3.3.1. Il réalise en sa première ligne, la convolution du vecteur formé par les coefficients du filtre avec le signal d’entrée (c’est le filtrage si on pose que le filtre est approximativement linéaire). Cela nous a conduit à considérer un algorithme nomméPNLMS++qui est très indiqué dans des tels systèmes pour sa grande vitesse de convergence et sa robustesse. Ce qui précède justifie le choix d’un traitement tout à fait particulier des données pour les rendre adaptées le plus fortement possible aux processeurs à virgule fixe (il s’agit du traitement par transformation en nombres de Fermat en lieu et place de la transformation de Fourier).
UNIVERSITE LIBRE DES PAYS DES GRANDS LACS ULPGL-GOMA B.P368GOMA /WWW.ULPGL.NET FACULTÉ DESSCIENCES ETTECHNOLOGIESAPPLIQUÉES Département de Génie Électrique et Informatique CONCEPTION D’UN FILTRE ANNULATEUR D’ECHO SONORE MIXTE Travail de fin de cycle présenté en vue de l’obtention du diplôme de Graduat en Sciences Appliquées. Présenté par :KRAME KADURHA DAVID Directeur : DI.Dr.Tech. ALAINAKWIR NKIEDIEL Encadreur : Ass2.Ing. DIEUDONNÉMUSONGYA BISIMWA Année académique2019−2020 DÉDICACES A Ma mère Charlotte, mon oncle Aciza et ma petite Joëlle dont respectivement le courage, l’humilité et l’innocence sont toujours une source d’inspiration. i REMERCIEMENTS En premier lieu, nous remercions Dieu pour nous avoir caché les choses tout en nous rendant capables de les trouver par nous mêmes. C’est à la fois un bonheur et un honneur. Nos remerciements particuliers à notre directeur, DI.Dr.Tech. Alain AKWIR NKIEDIEL, et notre encadreur, Ass2.Ing. Dieudonné MUSONGYA BISIMWA, pour le suivi humble, patient et attentif qu’ils nous ont accordé durant l’élaboration de ce document. Nous remercions aussi tous ceux dont l’existence contribue énormément à notre bien-être. Nous pensons particulièrement à notre mère BALIBUNO NZIGIRE Charlotte, Joëlle ANSIMA, Aciza CUBAKA, Daniel KADURHA, Emmanuella MUSIMWA, Florence CINAMA, Generose ABEKA, Alohn SHETEBO, Carine SHETEBO, Sr Catherine, Christian RUBONEKA, Bijoux NAMWESI et Bernardin BWIRABUCIZA. Nos remerciements les plus reconnaissants à Juvénal BALIBUNO, Marcellin BALIBUNO, Bakondjo MUHUBAO, Charles BISIMWA, Akonkwa BALIBUNO, Irène IRAGI, Georgette, Eka BIGABWA, Labii KADURHA, Déo KADURHA, Yvette BUBAKA, Ciza BUBAKA, Ludwine BALIBUNO ,etc. A nos chers grand-parents BALIBUNO Richard et François KADURHA dont respectivement la perspicacité et l’érudition ne cesseront de nous inspirer et de nous guider. Nous remercions enfin nos amis et camarades, pensant nommément à Wen KAMUNTU, Bruno KAMOLE, Patricia OLINABABO, Yvan KAHASHI, Naomi MASASI, Chrispin CIRHULWIRE, Divin KUBIYA, Patient KUBUYA, Pierre MABILI, Styve EBASOMBA, Jacques NDAVARO et tous les gens bienveillants. Recevez nos remerciements les plus sincères. KRAME KADURHADAVID iii RÉSUMÉ Ce travail consiste à concevoir un filtre numérique destiné à un système annulateur d’écho sonore. Pour y parvenir, on commence par passer en revu les notions générales de la théorie de traitement du signal directement utiles à cette fin. Après cela, une analyse détaillée des algorithmes élaborés pour l’identification des systèmes est réalisée pour finalement déboucher sur deux choses: l’étude des techniques permettant d’optimiser au maximum les algorithmes et le choix d’un algorithme particulièrement adapté aux systèmes annulateurs d’écho (on a choisi leBPNLMS++). Ici le système à identifier est le chemin d’écho. L’algorithme choisi et amélioré est écrit et testé sous Matlabpour en vérifier la validité (le test de validation est réalisé dans une situation où l’on sait déjà le résultat prévu par la théorie et on simule l’algorithme pour le valider ou l’invalider). La validation ayant réussi, le filtre est prêt à être implémenté comme tel sur une plateforme d’annulation d’écho. Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). Donc ces coefficients sont figés pendant le filtrage. Ainsi, on peut facilement, grâce à ce filtre, modéliser l’écho d’un signal en entrée, et le soustraire du signal global à transmettre comme réponse à l’émetteur, pour que ce dernier ne puisse pas recevoir une réplique du signal qu’il a émis (l’écho est ainsi supprimé). Le travail est effectivement clos par la validation de l’algorithme qui implémente le filtre adaptatif conçu, ainsi que par un essai d’annulation d’écho. v SIGLES ET ABRÉVIATIONS ADC: Analog to Digital Converter; BLMS: Block Least Mean Square; BNLMS: Block Normalized Least Mean Square; BPNLMS++: Block Proportionnate Normalized Least Mean Square amélioré; CAN: Convertisseur Analogique-Numérique; CNA: Convertisseur Numérique-Analogique; DAC: Digital to Analog Converter; DSP: Digital Signal Processing; FFT: Fast Fourier Transform; FNT: Fermat Number Transform; GF: Galois Field; GPS: Global Positionning System; LMS: Least Mean Square; NLMS: Normalized Least Mean Square; NNT: Natural Number Transform; PNLMS: Porportionnate Normalized Least Mean Square; PNLMS++: PNLMS amélioré; RLS: Recursive Least Square; SNR: Signal-to-Noise Ratio. vii Table des matières DÉDICACESi REMERCIEMENTSiii RÉSUMÉv SIGLES ET ABRÉVIATIONSvii INTRODUCTION GÉNÉRALE1 0.1Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 0.2Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.3Formulation des hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.4Objectifs du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.1Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.2Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.5Choix et intérêt du sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.6Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . . . .4 0.7Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL7 1.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 1.2Bases théoriques du traitement du signal . . . . . . . . . . . . . . . . . . . . . . .8 1.2.1Fondement de l’analyse des signaux[4] . . . . . . . . . . . . . . . . . . .8 1.2.2Signaux déterministes . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 ix TABLE DES MATIÈRES 1.2.3Signaux aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12 1.2.4Cas des signaux discrets . . . . . . . . . . . . . . . . . . . . . . . . . . .14 1.3Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.2Prélude au filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . .20 1.4Traitement du signal audio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 1.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON25 2.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 2.2Quelques algorithmes de filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . .26 2.2.1Algorithme du gradient déterministe . . . . . . . . . . . . . . . . . . . . .26 2.2.2Algorithme du gradient stochastique(LMS)[1] . . . . . . . . . . . . . . . .28 2.2.3Algorithme des Moindres Carrés Récursif [1]&[14] . . . . . . . . . . . . .28 2.2.4Algorithme LMS Normalisé (NLMS) [1]&[6] . . . . . . . . . . . . . . . .29 2.2.5Algorithme Proportionné Normalisé (PNLMS)[1] . . . . . . . . . . . . . .30 2.2.6Algorithme PNLMS++ [1] . . . . . . . . . . . . . . . . . . . . . . . . . .31 2.3Transformée en nombres entiers (NNT) [1] . . . . . . . . . . . . . . . . . . . . .32 2.3.1Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 2.3.2Transformation en nombres de Fermat et arithmétique binaire . . . . . . .33 2.3.3Version rapide de la FNT . . . . . . . . . . . . . . . . . . . . . . . . . . .35 2.3.4La convolution rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 2.3.5Multiplication optimale des matrices [8] . . . . . . . . . . . . . . . . . . .37 2.4Traitement par bloc des algorithmes d’annulation d’écho . . . . . . . . . . . . . .38 2.4.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38 2.4.2Algorithmes proprement-dits [1] . . . . . . . . . . . . . . . . . . . . . . .40 2.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .42 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ43 3.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 x sur 84 TABLE DES MATIÈRES 3.2Structure globale du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 3.2.1Filtre anti-repliement . . . . . . . . . . . . . . . . . . . . . . . . . . . . .44 3.2.2Convertisseurs Analogique-Numérique et Numérique-Analogique . . . . .46 3.2.3Filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.2.4Traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 3.3Élaboration de l’algorithme et présentation du système . . . . . . . . . . . . . . .50 3.3.1Élaboration de l’algorithme d’apprentissage . . . . . . . . . . . . . . . . .51 3.3.2Présentation du système réel . . . . . . . . . . . . . . . . . . . . . . . . .54 3.4Implémentation de l’algorithme et simulations . . . . . . . . . . . . . . . . . . . .55 3.4.1Traitement brut des données . . . . . . . . . . . . . . . . . . . . . . . . .55 3.4.2Traitement par bloc des données . . . . . . . . . . . . . . . . . . . . . . .57 3.4.3Essais comparés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .59 3.5Analyse des résultats et explication de l’implantation sur DSP . . . . . . . . . . .65 3.5.1Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65 3.5.2Explication de l’implantation sur DSP . . . . . . . . . . . . . . . . . . . .66 3.6Annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .66 3.7Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .68 CONCLUSION GÉNÉRALE69 ANNEXES73 .1Algorithme de traitement brut . . . . . . . . . . . . . . . . . . . . . . . . . . . .75 .2Algorithme de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . .78 xi sur 84 Liste des figures 1.1Visualisation d’un signal de parole sur une durée de 1/16 de seconde . . . . . . . .13 3.1Chaîne typique de traitements du signal . . . . . . . . . . . . . . . . . . . . . . .44 3.2Absence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.3Présence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.4Echantillonnage-Quantification-Codage[18] . . . . . . . . . . . . . . . . . . . . .47 3.5Positionnement du filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.6Processus complet de conversion N/A (signaux associés) . . . . . . . . . . . . . .48 3.7Signal d’entrée utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .56 3.8Valeurs des64coefficients du filtre . . . . . . . . . . . . . . . . . . . . . . . . . .57 3.9Les64coefficients du filtre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58 3.10 Les64coefficients du filtre 2 non formatés . . . . . . . . . . . . . . . . . . . . . .59 3.11 Coefficients du filtre 1 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.12 Coefficients du filtre 2 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.13 Coefficients du filtre 1 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.14 Coefficients du filtre 2 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.15 Coefficients du filtre 1 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.16 Coefficients du filtre 2 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.17 Coefficients du filtre 1 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.18 Coefficients du filtre 2 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.19 Coefficients du filtre 1 pour 4370 itérations . . . . . . . . . . . . . . . . . . . . .64 3.20 Coefficients du filtre 2 pour 400 itérations . . . . . . . . . . . . . . . . . . . . . .64 3.21 Démonstration de l’annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . .67 xiii INTRODUCTION GÉNÉRALE 0.1 Contexte La communication est un facteur clé dans l’émergence d’une société. Ce fait se démontre par le développement assez important survenant après que l’homme ait développé les méthodes de traitement, manipulation et interprétation des signaux. Il existe plusieurs types de signaux, mais nous nous focaliserons dans ce travail, sur les signaux sonores. L’onde sonore résulte d’une perturbation du milieu de propagation considéré. En effet, le milieu de propagation 1 est complètement connu si en chacun de ses points et à chaque instant on a la valeur de la vitesse, la pression et celle de la densité. Quantitativement, cela revient à définir les fonctions donnant ces grandeurs. Sous l’effet de la perturbation des dites grandeurs (avec l’approximation acoustique[5], ces perturbations sont très négligeables par rapport à la valeur au repos de la grandeur perturbée), on constate une variation qui respecte l’équation des ondes. Cela traduit le fait que le son est une onde, ce qui veut dire que son comportement est bel et bien analogue à tout type d’onde. De ce fait, il subira tous les traitements réservés aux grandeurs ondulatoires. Il peut donc subir la diffraction, la réfraction, l’interférence,... exactement comme tout type d’onde. On peut aussi en étudier le phénomène de réflexion et cela nous amène immédiatement à l’étude de l’écho lui associé, c’est ce qui va particulièrement nous préoccuper dans ce travail. L’écho acoustique en tant que phénomène physique, n’est en aucune manière problématique ni dérangeant. Il peut néanmoins s’avérer indésirable lors d’une communication par exemple. C’est ainsi qu’il est parfois impératif de trouver une solution à la nuisance apportée par des 1 Nous traiterons dans ce document, uniquement de la propagation du son dans les fluides et particulièrement dans les gaz; que nous supposerons évidemmentparfaits. 1 LISTE DES FIGURES échos acoustiques 2 non désirés. 0.2 Problématique Il arrive que, suite à un mauvais couplage du microphone avec le haut-parleur, nous puissions entendre notre voix résonner via l’ordinateur portable et les hauts-parleurs de la salle de réunion, via les écouteurs lors d’une vidéo-conférence, lors d’un appel téléphonique(surtout en mode mains libres)... Le phénomène peut ne pas durer assez longtemps mais il devient très vite gênant surtout quand il est perceptible. Toutefois, même quand l’écho n’est pas perceptible, il rend moins bonnes l’optimisation de la mémoire ainsi que la compression des données. La qualité du son lors d’une communication est très importante, surtout en application civile, et l’optimisation de l’espace de stockage en cas de besoin ne peut être que bénéfique. Cela fait à ce qu’il soit impérieux de focaliser notre recherche sur les moyens efficaces et rentables au point de vu économique, pour remédier au dit problème. De cette ambition naissent quelques questions auxquelles nous auront répondu à l’issu de ce travail, à savoir: 1. Le filtrage peut-il remédier complètement au problème de la présence indésirée d’écho sonore? 2. Un filtrage analogique peut-il suffire sans problème? 3. Sans mémorisation dynamique du signal, est-il possible de mieux annuler l’écho? 0.3 Formulation des hypothèses Nous estimons qu’un filtre résoudrait bel et bien le problème de la présence indésirée de l’écho acoustique dans les signaux sonores. Nous croyons également qu’un filtre purement analogique serait moins rentable pour réaliser de façon satisfaisante l’annulation de l’écho d’un signal sonore. 2 L’utilisation abusive du termeécho acoustiqueen lieu et place d’écho sonoren’est pas à considérer avec toute la rigueur 2 sur 84 0.4. OBJECTIFS DU TRAVAIL C’est pour cette raison que nous anticipons qu’un filtre mixte, allié à une mémorisation dynamique et optimisée du signal réaliserait amplement l’extraction du signal de base sans écho. 0.4 Objectifs du travail 0.4.1 Objectif général Notre travail consiste à concevoir un filtre annulateur d’écho acoustique. 0.4.2 Objectifs spécifiques Pour arriver à mettre conceptuellement sur pieds un filtre annulateur d’écho adapté, nous comptons: 1. Etudier la génération d’écho acoustique et circonscrire le problème; 2. Choisir l’approche adaptée pour modéliser la réponse d’une enceinte à l’onde sonore; 3. Évaluer la possibilité d’un traitement par filtrage adaptatif; 4. Etudier et adapter le filtrage numérique de l’écho; 5. Concevoir, étudier et tester les algorithmes d’annulation d’écho; 6. Proposer les éléments et paradigmes adaptés pour une perspective d’implantation du filtre. 0.5 Choix et intérêt du sujet Le filtrage des signaux est assez puissant pour résoudre tout problème consistant à séparer le signal utile d’avec le bruit. Nous avons donc songé à appliquer ce type de traitement au son juste en ce qui concerne l’annulation de l’écho, sans nous préoccuper des autres signaux indésirables qui brouilleraient le signal utile. La conception d’algorithmes de filtrage du son serait rendue plus efficace sur un grand nombre des points si le problème de l’écho se trouvait préalablement résolu. Ainsi, ce sont d’autres parasites qui seraient pris en compte et l’écho deviendrait secondaire. 3 sur 84 LISTE DES FIGURES Sur le plan social, il est évidemment important d’augmenter le confort lors d’une communication par exemple en annulant l’écho quand cela s’avère nécessaire mais également, d’optimiser l’utilisation d’un espace mémoire en cas de stockage des données. 0.6 Méthodologie de recherche et délimitation du travail Nous procéderons par analyse et expérimentation (notamment grâce au logicielMatlab) avec comme techniques, l’analyse du contenu et la documentation. Notre travail se focalise uniquement sur l’onde sonore, principalement sur le filtrage ainsi que l’annulation de l’écho généré 3 . Nous réaliserons donc le filtrage dudit signal dans un contexte plus général (indépendamment de l’enceinte, considérant juste la modélisation de la réponse de l’enceinte, ou du lieu en général, à l’onde sonore). Cela nous conduira à élaborer un filtre adapté avec optimisation des apports respectifs des parties numériques et analogiques. Il faut également noter que le milieu de propagation considéré dans le présent travail est le gaz parfait. Aussi, nonobstant le fait que certains résultats trouvés soient applicables pour tout type de fluide, nous ne les appliquons qu’au cas des gaz parfaits. 0.7 Subdivision du travail Excepté l’introduction et la conclusion générales, nous avons dans ce travail: • AuChapitre 1,Les généralités sur le traitement du signal, nous nous focalisons sur les aspects du traitement des signaux qui seront utiles à notre projet (particulièrement le traitement du signal audio). • AuChapitre 2,Etude théorique du filtrage du son, nous traitons particulièrement du filtrage de l’onde sonore en vu d’annuler un écho éventuel. Nous y parlons également des différentes 3 On ne traitera par exemple pas de l’écho électrique dû aux caractéristiques des éléments intervenant dans le traitement et la transmission du signal. 4 sur 84 0.7. SUBDIVISION DU TRAVAIL méthodes d’annulation d’écho et particulièrement des algorithmes existant. • AuChapitre 3,Conception d’un filtre mixte adapté, nous concevons, étape par étape, le filtre recherché en nous basant sur les algorithmes du chapitre précédent, tout en les complétant et en les améliorant en cas de besoin. Nous y donnons également des lumières utiles pour l’embarcation du système. 5 sur 84 Chapitre 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.1 Introduction partielle L’un des moyens permettant de se faciliter la tâche de manipulation du son, consiste à le voir comme une fonction mathématique (bien que non modélisable comme tel de manière rigoureuse). Ainsi on voit le son comme la variation d’une quantité (l’énergie de pression transmise par exemple) en fonction du temps. Cela nous permet de le traiter comme un signal parmi tant d’autres et ainsi avoir le droit d’y appliquer des résultats élaborés pour cet effet dans le cadre d’une discipline nommée traitement du signal. Le traitement du signal est en effet une discipline qui est axée sur le traitement, l’interprétation et l’analyse des signaux. Un signal peut être contrôlé, filtré, comprimé, transmis, débruité, déconvolué, identifié, classifié... C’est donc une discipline dont l’objet central d’étude est le signal (concept qui regroupe nombreux phénomènes bien particuliers comme le son, l’image,...). Dans ce premier chapitre, nous abordons particulièrement les notions de base du traitement des signaux tout en orientant notre exposé dans le sens du traitement du signal qui nous concerne. Tout converge vers un traitement particulièrement utile pour notre étude, le filtrage. Nous nous focalisons sur le traitement numérique du signal vu que c’est ce qui facilite la manipulation et l’élaboration des systèmes de traitement des signaux. C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL cas de la majorité des signaux sonores. 1.2 Bases théoriques du traitement du signal 1.2.1 Fondement de l’analyse des signaux[4] Un signals(t)peut être vu approximativement comme une combinaison linéaire des fonctions simples et connues formant la base d’un espace vectoriel à dimensionnqui est infini à la limite. Cela étant, on associera à chaque fonctionf i (t)constituant la base dudit espace vectoriel un coefficientα i . Ce qui donne: s(t) = n ∑ i=1 α i f i (t)(1.1) Cette représentation des signaux est très capitale car elle facilite l’analyse du signal ainsi représenté et permet d’aborder le traitement numérique du signal. En effet, le traitement numérique d’un signal ne peut être envisagé que s’il est discrétisé or, la manière donts(t)est écrit en 1.1 suggère qu’il peut se voir comme un vecteur dont les composantes sont lesα i , ce qui le rend en fait discret. Nous venons de former un espace vectoriel des fonctions, isomorphe àR n ou àC n selon que le signal est modélisé sous la forme réelle ou complexe. On remarque ques(t)peut être représenté par un vecteur dont les composantes changent en fonction de la famille desf i (t)choisie. Le choix de cette famille est également primordial car c’est de lui que dépend la facilité d’analyse du signal considéré. La représentation des signaux par des vecteurs est très féconde etpermet par exemple d’évaluer le degré de ressemblance des signauxgrâce à la notion de distance. Pour cela, on définit une norme ‖.‖sur l’espace des fonctions introduit tel que pour tout signals(t)on ait que: ‖s(t)‖ 2 = √ √ √ √ n ∑ i=1 (α i ) 2 (1.2) 8 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Par analogie on a que la norme de s(t) est sur une périodeτ: ‖s(t)‖ 2 = √ ∫ τ |s(t)| 2 dt(1.3) L’expression 1.3 signifie que les signaux doivent être à carré intégrable. Le sens physique est que les signaux doivent avoir une énergie finie. Ce qui précède est évident pour un signal réel et constitue une condition supplémentaire à imposer à l’espace des signaux. Soients(t) = (α 1 ,...,α n )etu(t) = (β,...,β n )deux signaux, la distance entre les deux signaux sera donnée par la distance usuelle découlant de la norme définie en 1.2. Soit que: d(s,u) =‖s−u‖ 2 (1.4) = √ √ √ √ n ∑ i=1 (α i −β i ) 2 (1.5) Notez que par analogie on peut également définir, en vertu de 1.3, la distance entre les signaux par: d(s(t),u(t)) = √ ∫ τ |s(t)−u(t)| 2 dt(1.6) La norme, telle que définie en 1.2, dérive 1 évidemment d’un produit scalaire[9]; ce produit est donné par: 〈s,u〉= n ∑ i=1 (α i .β ? i )(1.7) Avecβ ? i le complexe conjugué deβ i pour être plus général. Comme habituellement nous pouvons aussi définir ce produit pour les signaux non discrétisés sur une période de tempsτpar: 〈s(t),u(t)〉= ∫ τ (s(t).u ? (t))dt(1.8) Le produit scalaire de deux vecteurs est proportionnel à la projection de l’un sur l’autre. Il est 1 Car on a que‖s‖= √ 〈s,s〉 9 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL maximum, en valeur absolue, lorsque les deux vecteurs ont la même orientation et nul lorsqu’ils sont orthogonaux. Il peut donc être considéré comme une mesure de la similitude d’orientation des vecteurs. En d’autres termes, le rapprochement des signaux dans leur évolution (similitude des formes). L’espace vectoriel des fonctions ainsi défini et muni de ce produit scalaire qui y induit une norme estcomplet[9] et constitueun espace de Hilbert. La connaissance de cette structure est cruciale car elle permet de traiter tous les éléments de cet espace des signaux en utilisant juste les résultats connus sur les espaces de Hilbert. Ce qui vient d’être démontré justifie que les signaux soient développables en série des fonctions orthogonales et non liées. D’où la possibilité de les développer ensérie de Fourierou bien en considérant les autres familles des fonctions orthogonales selon les besoins et la commodité. Le développement en série de Fourier est en fait d’une importance capitale en théorie du signal. 1.2.2 Signaux déterministes Les signaux déterministes sont ceux représentables par une fonction analytique. Suite à ce qui vient d’être montré à la sous-section précédente, nous allons reconsidérer la transformée de Fourier dans cette partie et en aborder les aspects utiles à notre travail. La transformation de Fourier est vue comme une généralisation du développement en série des fonctions orthogonales de Fourier tel que présenté dans la partie qui précède. Le développement en série Fourier est donnée par [13]: s(t) = +∞ ∑ n=−∞ [S n .e j2πnft ](1.9) Cette équation constitue donc, à quelques changements de variable près, un cas particulier de 1.1. Avec les coefficientsS n donnés par: S n = 1 T . ∫ T 2 −T 2 s(t).e −j2πnft dt(1.10) 10 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Définition [4] Soits(t)un signal déterministe, sa transformée de FourierSest définie par: S(f) = ∫ +∞ −∞ s(t).e −j2πft dt(1.11) Avectla variabletempsetflafréquence. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. Ici nous comptons montrer qu’à une fonction quelconque correspondra unetransformée de Fourier 2 . Pour cela, considérons un signal quelconques(t)et ciblons-y une région simple dont on connait l’expression analytique. Supposons ensuite un signals 1 (t)qui serait une réplique à l’infini de la partie ciblée.s 1 (t)est par cela périodique de périodet f −t i avect f l’instant final de la partie ciblée ett i son instant initial. Suite à cette définition des 1 (t), il est évident qu’en prenantT(c’est-à-diret f −t i )infinie, cela revient à prendres(t). D’où: s(t) = lim T→+∞ s 1 (t)(1.13) Nous savons pourtant que le développement des 1 (t)en série de Fourier existe car elle est périodique. Il sera donné mutatus mutandi par les rélations 1.9 en prenant en compte 1.10. Par conséquent,la représentation fréquentielle des 1 (t)est un spectre des raies et la distance entre raies adjacentes vaut f 1 = 1 T étant donné que le développement en série de Fourier suggère que toutes les fréquences, 2 Évidemment, si ladite fonction est à carré sommable, c’est-à-dire si son carré a une intégrale finie. 11 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL dans le développement des 1 (t), sont multiples def 1 . La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. Cela prouve qu’il existe, sous certaines hypothèses(voir la note de bas de page précédente), une fonction fréquentielleS(f)exprimant le signals(t)dans le domaine des fréquences. C’est évidemment clair étant données les relations 1.11 et 1.12. Nous en déduisons que la transformée de Fourier représente, à la limite, la densité spectrale de raies telle que définie en 1.14. D’où l’intérêt de cette transformée, généralisant le développement en série de Fourier, grâce à l’extension aux fonctions non périodiques. 1.2.3 Signaux aléatoires Les signaux déterministes, sont, comme nous venons de le voir, des fonctions telles que, à chaque instant, on dispose d’une règle permettant d’en évaluer la valeur. Cette règle peut être spécifiée sous forme d’une expression mathématique,ou d’une équation récurrente ou tout autre procédé de construction. Les fonctions déterministes forment la base de l’analyse mathématique, mais la plupart de phénomènes que nous aurons à modéliser ne sont pas de cette nature. 12 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Figure 1.1: Visualisation d’un signal de parole sur une durée de 1/16 de seconde Considérons le signal de parole représenté à la figure 1.1. Il est clair, à la vue de ce graphe, que l’on ne peut réduire ces observations à une fonction déterministe du temps. Nous pourrions peut-être trouver une fonction déterministe qui approxime correctement les valeurs observées sur un intervalle de temps[0,T], mais cette fonction ne serait pas une approximation valable de l’observation à l’extérieur de cet intervalle, et cette propriété perdurerait indépendamment de la durée[0,T]de l’observation. Le graphe 1.1 contient un très grand nombre d’irrégularités et ces irrégularités ne semblent pas respecter une évolution prédictible. Les observations ont un caractère aléatoire, dans le sens où nous ne savons pas déterminer, pour un instant donné, quelle sera la valeur précise de la mesure. Par contre, il est envisageable d’indiquer un intervalle de valeurs possibles et éventuellement de préciser comment ces valeurs sont distribuées à partir d’une certaine loi de probabilité. La bonne façon de décrire le comportement du phénomène est donc de spécifier, à chaque instant, une distribution de probabilité, permettant de décrire la vraisemblance de chaque observation. Dans le langage des probabilités, la valeur observée sur le capteur à chaque instant est une variable aléatoire et son évolution au cours du temps, un processus aléatoire. Cet exemple est le prototype d’une large classe de phénomènes qui conduit à adopter, pour les modéliser, la prise en compte de l’indéterminisme.[11] 13 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Les signaux aléatoires sont donc en bref des signaux dont la valeur instantanée est imprévisible, ce qui implique qu’ils n’ont pas de représentation analytique. Ces signaux seront étudiés grâce à certains paramètres statistiques qui leur sont associés. C’est en fait ces types de signaux qui sont rencontrés dans notre contexte et nous en reparlerons de manière plus approfondie, mais implicite, dans les parties qui vont suivre. 1.2.4 Cas des signaux discrets Nous aborderons ici les signaux discrets de manière secondaire. C’est-à-dire, en les prenant comme le résultat de l’échantillonnaged’un signal continu, vu que c’est cet aspect qui nous intéressera dans le présent travail. Echantillonnage Echantillonner 3 un signal consiste à prélever, à intervalle de temps régulier le plus souvent, les valeurs prises par le signal. Cela permet ainsi de voir le signal comme une suite de nombres et en permet le traitement par un ordinateur ou tout autre système de traitement des données. C’est en fait le processus deconversion analogique-numérique. De manière formelle donc, si on prélève les valeurs du signal avec une périodeT e , on aura une suite des nombres valant{s(nT e )} n∈Z 4 qui constitue les échantillons du signal. Par ce fait même, on est amené à songer au problème de reconstitution du signal à partir de ses échantillons. Avant de considérer ce problème, définissons l’impulsion de Dirac qui nous sera très utile pour la suite du travail même si elle n’est pas physiquement réalisable de manière parfaite car elle est idéale. Impulsion de Dirac[10] :Un Diracδ(t)est par définitionune distributiondont le support (domaine non nul) est réduit au pointt= 0et d’intégrale valant 1. Formellement, il est défini par: ∫ +∞ −∞ δ(t)dt= 1(1.15) 3 C’est l’une de manières les plus simples de discrétiser un signal 4 De manière tout à fait générale, sans prendre en compte dans un premier temps la causalité (c’est-à-dire le fait selon lequel le temps doit uniquement être pris positif) 14 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Ce qui veut dire que cela correspond à un signal de durée nulle et de surface1. C’est en fait une limite définie pratiquement par [3]: δ(t) = lim T→0      1 T pour| t T |< 1 2 0pour| t T |> 1 2 (1.16) De cela on peut montrer que: ∫ +∞ −∞ s(t).δ(t)dt=s(0)(1.17) Commeδ(t−τ)représente une impulsion de Dirac localisée plutôt enτ, on aura que: ∫ +∞ −∞ s(t).δ(t−τ)dt=s(τ)(1.18) On remarque que cette manipulation permet de prélever des valeurs des(t)en des instantsτbien précis. Plus généralement, introduisons un opérateur complet d’échantillonnage nommépeigne de Dirac(plusieurs Dirac étendus sur toute la droite des réels et espacés chaque fois deτsecondes). Il sera donné par: c(t) = +∞ ∑ n=−∞ δ(t−nτ)(1.19) c(t)permet de réaliser complètement l’échantillonnage d’un signals(t)car avec lui on prélève à intervalle de temps régulierτ(période d’échantillonnage), la valeur correspondante du signal. En effet, le signal échantillonné est alors donné parla distribution: s e (t) = ∑ +∞ n=−∞ s(nT e )δ(t−nT e ) = ∑ +∞ n=−∞ s(t)δ(t−nT e ) =s(t) ∑ +∞ n=−∞ δ(t−nT e ) En bref, au vu du développement qui vient d’être fait, on a: s e (t) =s(nT e ) =s(nT e ).c(t) =s(t).c(t)(1.20) Echantillonner un signal revient donc juste à le multiplier par le peigne de Dirac. 15 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Condition d’échantillonnage correct:La reconstitution du signal à partir de ses échantillons n’est réalisable que sous certains critères dont lethéorème d’échantillonnageditthéorème de Nyquist-Shannon. Ce théorème donne une condition sur le support du spectre (donné par la transformée de Fourier) du signals(t)pour reconstituers(t)à partir de ses échantillonss(nT e ). Ce théorème est ainsi énoncé: Théorème 1 (Nyquist-Shannon)Soits(t)un signal dont la transformée de FourierS(ω) 5 est à support dans[− π T e , π T e ]. Alorss(t)peut être reconstruit en interpolant sur ses échantillons s(t) = +∞ ∑ n=−∞ s(nT e ).h T e (t−nT e )(1.21) Avec h T =sinc( πt T ) = sin πt T πt T (1.22) Le théorème nous donne une condition surωpour que la reconstitution du signal à partir de ses échantillons soit possible. Cette condition est en effet|ω| ≤ π T e ce qui veut dire que la fréquence devra vérifierf max ≤ f e 2 ⇒f e ≥2.f max . En bref, le théorème 1 nous dit quela reconstitution du signal à partir de ses échantillons n’est possible que si la fréquence d’échantillonnagef e est supérieure ou égale au double de la fréquence maximale du spectre associé au signal. Transformée de Fourier Pour un signal discrets(nT e ), la transformée de Fourier est définie par[10]: S d (f) = +∞ ∑ n=−∞ s(nT e ).e −i.2πf.n (1.23) C’est au fait la transformée de Fourier de sa représentation sous forme de distribution telle que donnée par 1.20. On sait pourtant qu’à un point de vu réel on n’a qu’un nombre finiNd’échantillons. Pour prendre cela en compte, on définit la transformée de Fourier pour le cas dessignaux finis. Elle 5 ωreprésentant la pulsation du signal, avecω= 2.π.f 16 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cet algorithme est largement utilisé par les processeurs spécialisés dans le traitement du signal. Transformée de Fourier Rapide:On parle souvent d’algorithme FFT. 6 C’est une méthode pour calculer la transformée de Fourier discrète d’un signal permettant de réduire le temps de calcul. Pour cela, on calcule la transformée sur une moitié de l’échantillon puis sur l’autre, réduisant ainsi la complexité de l’algorithme de recherche de la transformée. Plus précisément, cet algorithme réduit le nombre d’opérations nécessaires au calcul de latransformée de Fourier DiscrètedeN 2 avec la méthode ordinaire àNlog 2 Nopérations en utilisant la FFT.[3] Comme montré précédemment, c’est utilisé pour le cas de signaux discrets périodiques (signaux discrets finis périodisés comme va le montrer clairement l’explication de l’expression 1.30). Ici nous n’en donnons qu’une vue sommaire étant donné que dans la suite du travail nous en reparlerons de manière plus claire quoi qu’implicite (voir le point 2.3.3). 6 Fast Fourier Transform (FFT) 17 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.3 Filtrage 1.3.1 Introduction Introduisons juste une opération qui nous sera très utile dans la suite. Filtrer un signal c’est lui faire subir une transformation bien particulière impliquant l’extraction d’une partie qu’on juge utile. En effet, la fonction d’un filtre est de modifier le contenu fréquentiel du signal d’entrée en transmettant intégralement le spectre du signal d’entrée sur certaines gammes de fréquences, et en bloquant le signal d’entrée pour les autres fréquences. Approximons un filtre par un système linéaire, homogène, invariant et stable[10]. Au point de vu formel ,le passage d’un signal à travers un filtre implique à ce qu’on lui fasse subir l’action d’un opérateur linéaire, homogène, invariant et stable. De ce fait, considérons un filtre représenté par un opérateur linéaireL. Au vu de ce que nous suggère la définition de l’impulsion de Dirac, se référant plus précisément à l’expression 1.18, nous voyons que: s(t) = ∫ +∞ −∞ s(u).δ(u−t)du(1.26) En lui appliquant l’opérateurlinéaireL, ce qui équivaut à le faire passer à travers un filtre,sans ignorer queδ(t) =δ(−t), on trouve: L(s(t)) =L{ ∫ +∞ −∞ s(u).δ(t−u)du}= ∫ +∞ −∞ s(u).L{δ(t−u)}du(1.27) Etant donné queLest aussi homogène en temps, on a que, siL{δ(t)}=h(t)alorsL{δ(t−u)}= h(t−u). Nous voyons évidemment queh(t)représentela réponse du système considéré à une impulsion de Dirac 7 . C’est ainsi que 1.27 donne: L(s(t)) = ∫ +∞ −∞ s(u).h(t−u)du(1.28) 7 C’est-à-dire le signal observé à la sortie du système en ayant appliqué une impulsion de Dirac en entrée. 18 sur 84 1.3. FILTRAGE C’est la définition duproduit de convolutiondu signal par la réponse impulsionnelle du filtre. En bref, faire passer un signal à travers un filtre linéaire et homogène consiste à faire le produit de convolution du signal par la réponse du filtre à une impulsion. Soit dit en passant, le produit de convolution des(t)parh(t)est donné par: s(t)? h(t) = ∫ +∞ −∞ s(u).h(t−u)du= ∫ +∞ −∞ s(t−u).h(u)du(1.29) La convolution discrète est définie de façon analogue (c’est-à-dire en remplaçant les signaux continus par les correspondants échantillonnés et les intégrales par des sommations discrètes). Toutefois, pour le cas des signaux finis, on définit plutôtla convolution circulairecar l’application de la relation précédente comme telle impliquerait la prise en compte des échantillons précédant le début de l’échantillonnage (valeur négative du temps). Pour cela, on considère que l’échantillon observé se répète à l’infini (périodisation des données récoltées). Donc, siNest le nombre d’échantillons, on devra faire tous les calculs surZ N . D’où la définition[10] de la convolution circulaire 8 : En posant ̇n=n modulo Ncar nous travaillons dansZ N , s(nT e )~h(nT e ) = N−1 ∑ p=0 s( ̇pT e ).h[ ̇ ̂ (n−p).T e ](1.30) La définition du produit de convolution ainsi donnée nous permet de donner un complement fondamental au paragraphe 1.2.2. Nous constatons en fait que les exponentiellese i2πft sont des vecteurs propresdes opérateurs de convolution qui sont sans doute des opérateurs linéaire (Lselon notre notation). En effet, appelonsL(•)l’opérateur de convolution défini parL(•) =h(t)?•. Nous aurons, à la lumière de la définition donnée par l’expression 1.29 alliée à la définition de la transformée de Fourier donnée en 1.11: L(e i2πft ) = ∫ +∞ −∞ h(u).e i2πf(t−u) du= (e i2πft ).H(f)(1.31) AvecH(f)la transformée de Fourier de la réponse impulsionnelleh(t)du filtreL. On le nomme fonction de transfert du filtre L. En toute évidence, les exponentiellese i2πft sont les vecteurs 8 La seule qui soit utilisable en pratique car définie pour les signaux finis. 19 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL propres de l’opérateur linéaireLet les fonctions de transfert associées sont lesvaleurs propres correspondantes. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. D’où l’intérêt de la série de Fourier et par ricochet, la transformée de Fourier. 1.3.2 Prélude au filtrage adaptatif Nous ne traiterons pas du filtrage classique ni dans un cadre discret ni dans un cadre continu vu que ce ne sera vraiment pas utile. Nous parlerons néanmoins dufiltrage adaptatifdont les concepts nous seront d’une grande utilité dans le cadre du présent travail. Pour cela, introduisons d’abord un filtrage particulier qui permettra d’aborder le filtrage adaptatif. Filtrage de Wiener[6] Ce type de filtrage est conçu pour séparer le signal d’avec le bruit comme tout autre type de filtrage. C’est-à-dire, séparer deux signaux à caractéristiques statistiques différentes. Soients(nT e )le signal d’excitation que nous noterons justes(n)par commodité(comme pour tous les autres signaux échantillonnés considérés dans ce paragraphe),y(n)signal qu’on voudrait obtenir à la sortie du système (entaché de bruit normalement),e(n)le bruit inconnu,y w (n)le signal modélisé à l’aide des paramètres du filtre,ε(n)l’écart entrey(n)ety w (n). Considérant que le signal passe par un système linéaire et homogène, nous aurons à la sortie un signal obtenu par convolution discrète du signal d’entrée avec la réponse impulsionnelle du filtre constituant le système considéré. Il existe donc les coefficientsw k tel que: y w (n) = p−1 ∑ k=0 w k .s(n−k)(1.32) Ce filtre est à réponse impulsionnelle finie de longueurp. Notez que, bien que non mentionné, cette convolution est faite avec les mêmes considérations que celles mentionnées pour laconvolution circulairedonnée en 1.30 sauf qu’ici, nous faisons abstraction desmodulospour ne pas alourdir l’écriture. Le problème ici consiste à minimiser 20 sur 84 1.3. FILTRAGE l’erreur d’estimation approximativeε(n) 9 . Nous allons utiliser les notations matricielles pour être général(en ce qui concerne le nombre de coefficients du filtre en particulier). La relation 1.32 devient: y w (n) = p−1 ∑ k=0 w k .s(n−k) =W T .S(n) =S(n) T .W(1.33) AvecW= ( w 0 w 1 ···w p−1 ) T ; S(n) = ( s(n)s(n−1)···s(n−p+ 1) ) T et l’exposantTsur les vecteurs indique qu’on a fait la transposition. De là on tire: ε 2 (n) = [y(n)−S(n) T .W] 2 =y(n) 2 −2y(n)S(n) T W+W T S(n)S(n) T W(1.34) AppelonsΓ(W)la valeur moyenne des erreurs commises (avecμl’opérateur indiquant qu’on fait une moyenne). C’est elle qu’il nous faudra chercher à minimiser pour espérer trouver un filtre optimal. Au vu du développement précédent nous aurons: Γ(W) =μ{y(n) 2 }−μ{2y(n)S(n) T W}+μ{W T S(n)S(n) T W}(1.35) DérivonsΓ(W)par rapport àW(ce qui correspond plus précisément à la recherche du gradient), ça donne: d[Γ(W)] dW =−2μ{y(n)S(n) T }+ 2μ{S(n)S(n) T }.W(1.36) Notons queμ{y(n)S(n) T }=          1 N ∑ N−1 n=0 y(n).s(n) 1 N ∑ N−1 n=0 y(n).s(n−1) . . . 1 N ∑ N−1 n=0 y(n).s(n−p+ 1)          avecNle nombre d’échantillons (Idem pour les autres moyennes, sachant que la moyenne d’une 9 On ditapproximativecar la sortie voulue n’est connue qu’à travers un transducteur (qui introduit également un bruit de fond). On minimise plutôt le carré de cette erreur pour des raisons tout à fait pratiques et calculatoires[14]. 21 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL matrice consiste à faire l’opération pour tous ses termes). Rappelons que: •μ{y(n)S(n) T }est un vecteur de dimensionp(vu quey(n)est un simple scalaire à chaque fois),on le nommevecteur d’intercorrélationet nous le noteronsR sy . •μ{S(n)S(n) T }est une matricep×pnomméematrice d’autocorrélationet nous la noterons R ss . Par conséquent, comme le minimum se retrouve en annulant le gradient, de l’expression 1.36 on tire l’équation donnant les coefficientsw k lorsque la dérivée est nulle, donc le filtre optimalW opt . On a: R ss .W=R sy ⇒W opt =R −1 ss .R sy (1.37) C’est l’équation normaledite deWiener-Hopf. On remarque évidemment qu’implémenter ce système aura un certain nombre de lacunes dont par exemple le temps de calcul des matrices ainsi que l’espace mémoire nécessaire surtout pour l’inversion de la matriceR ss . Le problème le plus pertinent est quesi les signaux ne sont pas stationnaires, ce qui est pourtant plus fréquemment le cas pour les signaux réels,R ss etR sy évoluent au cours du temps. Cela veut dire qu’il faudra chaque fois résoudre à nouveau l’équation de Wiener-Hopf. Ce qui vient d’être montré justifie qu’il est impérieux de trouver un moyen efficace pour pouvoir résoudre récursivement et plus rapidement l’équation de Wiener-Hopf. Le filtrage adaptatif apporte une solution efficace à ce problème. 1.4 Traitement du signal audio Le traitement du signal audio est un domaine très vaste qu’on ne peut espérer aborder de manière exhaustive dans ce document. Premièrement, cela serait une perte d’énergie et deuxièmement c’est une entreprise utopique. Le son peut en fait subir divers traitements dont le filtrage. Nous nous intéressons juste au filtrage ayant pour finalité l’annulation d’un écho présent dans le fichier 22 sur 84 1.5. CONCLUSION PARTIELLE sonore. L’annulation d’écho est ardue si on l’étudie de manière détaillée, c’est-à-dire en voulant considérer tous les paramètres qui entrent en jeu. En effet, pour annuler l’écho, il faut connaître précisément le milieu de propagation du son qu’on veut débarrasser de la perturbation en question. Le problème est qu’en premier, une telle étude serait irréalisable car cela prendrait en compte un très grand nombre de paramètres. En second lieu, les paramètres varieraient continuellement dans le temps (considérer pour cela le fait que, dans une enceinte, le changement de positon de l’un des éléments a une influence significative sur le comportement de ladite enceinte par rapport au signal à considérer; par exemple, le déplacement du microphone modifie directement la réponse de l’enceinte au signal et change par là même les calculs à faire pour annuler au mieux l’écho,...) et cela rendrait juste l’entreprise irréaliste. Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Cela rendrait l’étude systématique réalisable en pratique. Au vu de ce dont nous avons parlé dans les sections précédentes, la solution est d’étudier la fonction de transfert associée à l’enceinte considérée et de recourir au filtrage adaptatif pour une prise en compte efficace de l’évolution temporelle du système. La stratégie d’annulation d’écho acoustique repose sur une estimation du canal acoustique de l’écho en identifiant la réponse impulsionnelle du bouclage acoustique qui est retranchée finalement du signal. Le filtrage étant adaptatif, les coefficient du filtre sont adaptés en fonction de l’erreur commise à chaque itération. La réponse impulsionnelle du filtre varie au cours du temps et dépend du signal en entrée, de la séquence d’apprentissage et de l’algorithme d’optimisation choisi[1]. 1.5 Conclusion partielle Dans ce premier chapitre, nous avons premièrement justifié le bien fondé de l’application de l’analyse de Fourier au traitement du signal tout en pointant les résultats intéressants de cette dernière discipline. Deuxièmement, nous avons montré de manière implicite à quel point le traitement numérique du 23 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL signal est fécond et intéressant. En effet, il facilite les manipulations à effectuer sur les signaux, en facilite l’étude théorique et surtout, est plus adaptable aux divers systèmes de traitement des données existant, tout en étant moins sensible aux caprices de la nature (insensibilité du signal, dès qu’il est numérisé, aux perturbations de l’appareillage). Nous y avons également traité du filtrage adaptatif. Pour cela, le concept a été illustré par le filtre de Wiener (filtre en général non utilisable pour le son car restreint aux signaux stationnaires), très crucial pour le développement du filtrage adaptatif proprement-dit qui est abordé dans le chapitre qui suit. 24 sur 84 Chapitre 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.1 Introduction partielle Le traitement du signal sonore doit être minutieusement réalisé car les effets d’un mauvais traitement sont facilement perceptibles. Un traitement particulier, le filtrage, avec comme objectif d’annuler l’écho éventuel du signal sonore, fait l’objet de ce chapitre. Nous avons principalement opté pour un traitement numérique du signal à cause des avantages que cela procure (allant de la facilité de traitement à la facilité de réplique des manipulations effectuées en passant par la grande disponibilité des concepts élaborés du domaine). C’est ainsi que nous présentons, en premier lieu, divers algorithmes de filtrage conçus principalement avec comme objectif d’aboutir à une possibilité d’annuler l’écho d’un signal sonore. En second lieu, nous abordons un type de transformation numérique particulier, la transformée en nombres de Fermat, qui constitue un substitut valable à la transformation de Fourier discrète dans des situations où il est impérieux de réduire la complexité de calcul des algorithmes élaborés. En troisième et dernier lieu, nous y présentons un paradigme très essentiel pour une réduction encore plus grande de la complexité des algorithmes élaborés pour le traitement des signaux. Il s’agit du traitement par bloc des séquences numériques. 25 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2 Quelques algorithmes de filtrage adaptatif Le filtrage adaptatif a été introduit à la fin du premier chapitre. En gros, ça consiste à réaliser le filtrage avec un filtre numérique qui change et s’adapte à l’enceinte selon un critère bien défini (un critère de minimisation du carré de l’erreur d’estimation par exemple). Pour cela nous avons parlé du filtre de Wiener qui, bien que n’étant utilisable qu’en cas des signaux stationnaires, nous permet d’aborder de manière claire et succincte le filtrage adaptatif. Ces algorithmes ont donc pour raison d’être l’approximation du filtre optimal de Wiener en cas des signaux non stationnaires. Il s’agit dufiltrage adaptatif proprement-dit. 2.2.1 Algorithme du gradient déterministe L’équation de Wiener-Hopf vue à la fin du précédent chapitre permet de retrouver le filtre optimal en résolvant un système depéquations àpinconnues. Cet algorithme permet de résoudre le système de manière itérative. Cela est fait en deux étapes: • Choix du vecteurW 0 (Winitial). • Obtention, à partir deW k , deW k+1 par incrémentation deW k dans la direction opposée au gradient de la fonction moyenne des erreursΓ(W)introduite en 1.35. Ainsi on aura[14]: W k+1 =W k − 1 2 λ∇[Γ(W)](2.1) Et pourtant on sait que, selon les notations adoptées, et suite à l’égalité 1.36 on a: −−→ gradΓ(W)≡∇[Γ(W)] = d[Γ(W)] dW =−2R sy + 2R ss W k (2.2) Par conséquent, l’algorithme du gradient déterministeest donné par[1]: W k+1 =W k +λ(R sy −R ss .W k )(2.3) 26 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF La stabilité de cet algorithme est contrôlée par lepas d’adaptationλ, elle dépend également de la matrice d’autocorrélation du vecteur d’entrée[1]. En effet, si on nommeE k l’écart entreW k etW opt aprèskitérations, on aura: E k =W k −W opt (2.4) or selon l’équation de Wiener-Hopf, R ss W opt =R sy (2.5) Et selon l’algorithme du gradient déterministe on aura: W k+1 =W k +λ.(R ss .W opt −R ss .W k )(2.6) =W k +λR ss .(W opt −W k )(2.7) =W k −λR ss .E k (2.8) De ce qui précède on tire que E k+1 =W k+1 −W opt =E k −λR ss .E k (2.9) Ce qui montre de manière évidente de quelle façon la convergence de l’algorithme dépend du pas d’adaptation et de la matrice d’autocorrélation du vecteur d’entrée. La convergence de l’algorithmeest assurée par la contrainte[14]: 0 λ 2 λ pro max (2.10) Avecλ pro représentant une quelconque valeur propre de la matrice d’autocorrélation du signal d’entrée etλ pro max la plus grande valeur propre de cette matrice. Notons que pour des faibles valeurs deλ(pas d’adaptation), le temps de convergence lui est inversement proportionnel. Le choix deλest trop délicat et sa fixité ne garantit pas une vitesse de convergence optimale de l’algorithme. Par conséquent, il est nécessaire d’y trouver une solution. 27 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2.2 Algorithme du gradient stochastique(LMS)[1] Cet algorithme dit des moindres carrés ou LMS (Least Mean Square) consiste à minimiser l’erreur quadratique moyenne. C’est-à-dire en considérant son gradient au lieu de celui de la moyenne des carrés des erreurs (que nous avons nomméΓ(W)). Cela résout approximativement le problème évoqué au paragraphe précédent pour l’algorithme du gradient déterministe, problème de faible vitesse de convergence pour des très faibles valeurs du pas d’adaptation. Au fait, c’est plus adapté en pratique car on a très rarement∇[Γ(W)]. Ainsi, comme∇[ε 2 (n)] =∇[ε 2 k ] = 2ε k . ∂ε k ∂W =−2.ε k .S k 1 , on aura l’algorithme LMS donné par: W k+1 =W k − 1 2 λ∇[ε 2 (n)] =W k +λS k ε k (2.11) L’adaptation qui assure la convergence en moyenne quadratique la plus rapide est donnée par 2 : λ opt = 2 p.σ 2 (s) (2.12) Avecσ 2 (s)lavariance du signal d’entrée. On remarque que la convergence de l’algorithme LMS dépend de la statistique du signal d’entrée. Pour les signaux non stationnaires, il est difficile de suivre les variations du signal d’entrée avec l’adaptation du filtre par l’algorithme LMS et cela donne une convergence lente. D’où l’algorithme des moindres carrés récursif. 2.2.3 Algorithme des Moindres Carrés Récursif [1]&[14] Cet algorithme, leRecursive Least SquaresRLS, permet de suivre les signaux non stationnaires tout en ayant une vitesse de convergence convenable. Ici, au lieu de minimiser un critère statistique établi sur l’erreur commise en estimant un signal, on minimise, à chaque itération la somme des carrés des erreurs commises depuis l’instant initial. Dans ce cas,Γ(W)serait donné par 1 S k représente le vecteurS(n)à lak ieme itération etε k l’erreur(c’est un scalaire)ε(n)après le même nombre d’itérations. 2 Avec l’hypothèse d’unbruit blancen entrée 28 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF Γ(W) = 1 k ∑ k n=0 ε 2 (n)mais vu que cela n’affecte pas le critère de minimisation, on prendra plutôt: Γ(W) = k ∑ n=0 ε 2 (n)(2.13) La réponseWdu filtre adaptatifest donc fonction des échantillons disponibles et non d’une moyenne statistique générale. Cela est très capital et constitue le noyau de cet algorithme. Par analogie avec le filtre de Wiener on aura les relations 3 : R ss k W k =R sy k (2.14) AvecR ss k = ∑ k n=0 S n .S T n etR sy k = ∑ k n=0 S n .y(n). La réponse impulsionnelle du filtre sera donc modifiée à chaque itération. Pour limiter le nombre des calculs, l’équation à utiliser, et qui constitue l’algorithme RLS, est la suivante: W k+1 =W k +R −1 ss k S k ε k (2.15) Et dans cette formule, le calcul deR −1 ss k se fait par: R −1 ss k = 1 δ [R −1 ss k−1 − R −1 ss k−1 .S T k .R −1 ss k−1 δ+S T k .R −1 ss k−1 .S k ](2.16) AvecR ss 0 = 1 δ .I p avecI p matrice unité de dimensionp×p,δ∈]0,1[etW 0 ≡vecteur nul de dimensionp. Cet algorithme converge plus vite que le LMS mais est plus difficile à mettre au point. Un palliatif à cette difficulté de mise en application est l’algorithme dit NLMS. 2.2.4 Algorithme LMS Normalisé (NLMS) [1]&[6] LeNormalized Least Mean Squaredit NLMS pallie à la complexité du RLS et, de manière directe et plus globale, à l’inadaptation du coefficient d’adaptation de l’algorithme LMS (Problème soulevé à la fin du paragraphe sur l’algorithme LMS). Cet algorithme consiste à normaliser le coefficient 3 C’est logique car les développements sontformellementidentiques 29 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON d’adaptationλdu LMS en prenant en compte l’énergie du signal d’entrée, ce qui réduit au minimum l’effet de l’influence de la variation de la puissance du signal. Cela rend la vitesse de convergence plus ou moins uniforme en passant d’une itération à l’autre. Donc on aura la même formule d’itération que celle donnée pour l’algorithme LMS par l’équation 2.11, à la différence près que le coefficient d’adaptation est ainsi normalisé: λ k = λ S T k .S k +β (2.17) Par conséquent, l’algorithme NLMS est donné par l’équation: W k+1 =W k + λ S T k .S k +β .S k ε k (2.18) βest un facteur permettant de suivre rapidement les variations de l’énergie dans le signal d’entrée. La convergence de cet algorithme est garantie siλ k ∈]0, 2 λ pro max [. L’intérêt de cet algorithme par rapport au LMS est qu’il est indépendant à la variance du signal d’entrée. Il faudra toutefois noter qu’ici aussi il y a dépendance de la convergence de l’algorithme à la statistique du signal d’entrée car la distribution des valeurs propres de la matrice d’autocorrélation du signal n’est pas modifiée. Pour les signaux stationnaires (lebruit blancpar exemple) ou non-stationnaires (signal deparole par exemple), le NLMS apporte une amélioration significative du taux de convergence suite à la normalisation. En ce qui concerne la mise en œuvre, cet algorithme est plus complexe que le LMS mais en pratique il fait partie des plus simples et plus efficaces algorithmes d’adaptation. 2.2.5 Algorithme Proportionné Normalisé (PNLMS)[1] Cet algorithme, le PNLMS, spécialement adapté à l’annulation d’écho, fait l’adaptation avec un taux de convergence variable. Il a plus d’opérations que le NLMS mais converge plus vite; il découle du NLMS en remplaçant leλ k par: λ k = λG k S T k .G k .S k +β (2.19) 30 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF AvecG k =diag[g k (0),···,g k (p−1)]qui est une matrice diagonale de typep×p. Et chaque fois,g k (n) = γ k (n) 1 p ∑ p−1 m=0 γ k (m) oùγ k (n) = max{ρν k ,|w k (n)|},n∈ {0,···,p−1}et ν k = max{δ,|w k (0)|,···,|w k (p−1)|}. Les termesρetδvalent respectivement 5 p et10 −2 . Donc l’algorithme PNLMS est donné par: W k+1 =W k + λG k S T k .G k .S k +β ·S k ε k (2.20) Néanmoins, sous certaines conditions dont ladispersivité de la réponse du filtre adaptatif, le PNLMS devient moins rapide que le NLMS. La solution à ce problème est la combinaison de ces deux algorithmes. D’où l’algorithme nomméPNLMS++. 2.2.6 Algorithme PNLMS++ [1] Cet algorithme est moins sensible aux variations de la réponses impulsionnelle du filtre. Il consiste à combiner les deux précédent comme suit: • Pour les itérations de numéro impair (kimpair), utilisation du PNLMS. • Pour les itérations paires, on utilise le NLMS. Puis en fin de compte on mélange les résultats pour retrouver le filtre optimal. L’algorithme ainsi défini est celui que nous utiliserons. Toutefois, il subira un certain nombre de modifications pour pouvoir devenir plus manipulable et plus optimal. Ces manipulations seront effectuées en faisant en sorte que les calculs puissent s’effectuer sur un processeur de traitement numérique des signaux sans oublier de prendre en compte le coût, la rapidité et la minimisation d’erreurs. Ainsi, nous devons chercher comment réaliser les opérations voulues en utilisant un processeur à virgule fixe, pour ne pas avoir à gérer les erreurs d’arrondissement introduites par une manipulation maladroite duprocesseur à virgule flottante, tout en réduisant le coût d’achat du matériel (le premier processeur étant moins cher que le second). Pour cela, une transformation tout à fait particulière nous sera utile; il faudra juste qu’elle ait les mêmes propriétés qu’une transformation de Fourier (surtout en ce qui concerne la convolution) et qu’elle rende les calculs 31 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON (le traitement) plus optimisé. On le réalise grâce à la transformation qui fait l’objet de la section qui suit. 2.3 Transformée en nombres entiers (NNT) [1] La transformée en nombres entiers a la même forme que la transformée de Fourier discrète mais la supplante en ce sens que la partie imaginaire n’existe plus dans cette nouvelle transformation. La racine primitive considérée dans cette dernière (l’exponentiel complexe) étant remplacée par la racineM ieme de l’unité dans le corps de Galois[2] 4 considéré. Soitαcette racine. Nous avons donc que 〈α M = 1〉 q (2.21) Avec〈·〉 q signifiant que le calcul est faitmodulo q, c’est-à-dire dans un corps de Galois d’ordreq. La formule précédente est celle qui sera chaque fois utilisée pour retrouver la racine primitiveαdès queMetqsont choisis. La transformée en nombres entiers de chaque termex n d’une séquence de longueurMest alors donnée par: X k =〈 M−1 ∑ n=0 x n α nk 〉 q (2.22) Si la longueur de la transforméeMet l’ordreqdu corps fini (sachant que tout corps fini est corps de Galois)[15]GF(q)sont premiers entre eux, il existe alors(M −1 ) 5 tel que〈M.M −1 ≡1〉 q (ceci signifie queM.M −1 est congru à1moduloq) et là l’inverse de la transformée existe siM|(q−1) (ça veut dire queMdiviseq−1), elle est donnée par: x n =〈M −1 M−1 ∑ k=0 X k α −nk 〉 q (2.23) La transformée en nombres entiers n’existe pas toujours; les conditions de son existence sont les suivantes: 4 Chaque fois le corps de Galois d’ordreqsera notéGF(q)selon la notation anglaise standard. 5 Des algorithmes de calcul rapide de l’inverse d’un nombre dans un corps fini existent et seront présentés dès que nécessaire. 32 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] • On doit avoir quepgcd(α,q) =pgcd(M,q) = 1ce qui implique que〈α M = 1〉 q (existence de la racine primitiveα). • Siqest premier, il faut nécessairement queM|(q−1). Sinonq= ∏ k i=0 p m i i etM|pgcd(p i −1,p j −1)∀(i,j)∈ {1,2,...} 2 . Aveci6=jetq= ∏ k i=0 p m i i représentant exactement la décomposition deqen facteurs premiers. • Il faut quepgcd((α i −1),q) = 1siiest un diviseur deM,∀i∈{1,2,...,M−1} 2.3.1 Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) De même que pour la transformée de Fourier discrète, la transformée en nombres entiers demanderait un ordre deM 2 multiplications etM(M−1)additions. L’opération la plus complexe ici est évidemment la multiplication par des puissances de la racine unitéα. De cela découle qu’il est impérieux de faire un choix judicieux de cette racine pour réduire la charge de calcul des processeurs à utiliser (il est ainsi plus malin de choisirαpuissance de 2 pour remplacer toutes les multiplications par des décalages de bit). Le choix de l’ordreqdu corps de Galois dans lequel on choisit de travailler est aussi important pour une programmation plus optimale. Il est plus avantageux de prendre un ordreqégal àun nombre de Fermat. C’est-à-dire un nombre de la forme2 b + 1avecbune puissance de 2 car cela rend l’algorithme très optimal. On parle de latransformation en nombres de Fermat. Il s’agit d’une transformée en nombres entiers dans un corps d’ordre égal à un nombre de Fermat (il faut noter en passant que, seuls les 5 premiers nombres de Fermat sont premiers). Ainsi on a queq= 2 2 t + 1avect∈N. Cette transformée est celle que nous utiliserons vu qu’elle rend nos algorithmes plus optimisés. 2.3.2 Transformation en nombres de Fermat et arithmétique binaire Nous devons analyser la transformation sous cet angle (sous l’angle de l’arithmétique binaire) car cela permet de rester dans notre contexte vu que nos calculs seront exécutés par un processeur numérique fonctionnant sous le même principe. Une FNT (Fermat Number Transform) de longueur quelconqueM= 2 t+1 a juste M 2 log 2 M 33 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON multiplications etMlog 2 Madditions. Nous voyons à quel point il est intéressant de travailler dans un corps de Galois ayant un ordreqégal à un nombre de FermatF t . Le terme générateurα étant aussi essentiel à la réduction de la complexité de calcul, le choix d’unαdifférent d’une racine primitive (contrairement aux indications du début) mais égal à une puissance de2est intéressant en arithmétique binaire pour réduire la charge de calcul en cas de multiplication. Les longueurs possibles sont alors données parM= 2 t+1−i et〈α= 2 2 i 〉 F t avec évidemment(i,t)∈N 2 tel que 06i < t.La longueur de séquence étant égale à une puissance de 2,〈M −1 =−2 2 t −1−(t−i) 〉 F t car en effet, 〈F t −1 = 2 2 t ≡−1〉 F t 〈2 2 t ·2 −(t−i+1) ≡−2 −(t−i+1) 〉 F t 〈M −1 = 2 −(t+1−i) ≡−2 2 t −1−(t−i) 〉 F t (2.24) D’où les formules de transformation seront données, à la lumière des relations 2.22 et 2.23, par: X k =〈 2 t+1−i −1 ∑ n=0 x n ·2 〈2 i nk〉 M 〉 F t x n =〈−2 2 t −1−(t−i) 2 t+1−i −1 ∑ k=0 X k ·2 〈−2 i nk〉 M 〉 F t (2.25) On peut doubler la longueur des séquences tout en conservant unαpuissance de2. Pour cela il suffit de poser quei=−1. Ainsi la racineαest solution de la relation de congruence〈α 2 = 2〉 F t . Donc, α 2 =〈2 = (−1)·2·(−1) =−2·(−1)〉 F t =〈−2·2 2 t = 2 2 t−1 (1−1−2·2 2 t−1 )〉 F t =〈(2 2 t−2 ) 2 ((2 2 t−1 ) 2 −2·2 2 t−1 + 1 2 )〉 F t =〈(2 2 t−2 (2 2 t−1 −1)) 2 〉 F t 34 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] Par conséquent,α≡ √ 2a un sens et existe dans le corps de GaloisGF(q)≡GF(F t )si et seulement sit≥2car du développement précédent on tire clairement que: 〈α≡ √ 2 = 2 2 t−2 ·(2 2 t−1 −1)〉 F t (2.26) Donc,( √ 2 n ) =    〈2 n 2 〉 F t pournpair 〈2 n−1 2 ·2 2 t−2 (2 2 t−1 −1)〉 F t sinon . Commecette transformation admet que la transformée du produit de convolution de deux séquences est égale au produit simple(terme à terme) des transformées des séquences convoluées, elle requiert Mlog 2 Mopérations simples (décalage de bit, additions) etaucune multiplication. Cela est génial vu que comparativement, la transformée de Fourier discrète requiert, hormis les opérations simples, un nombre de multiplications complexes de l’ordre de M 2 log 2 M 2 . 2.3.3 Version rapide de la FNT De même qu’il existe une version rapide de la transformée de Fourier (la FFT comme dit au premier chapitre), il en existe aussi une pour la transformée en nombres de Fermat. Le principe est le même etc’est la même chose du point de vu formel. Il consiste à diviser la séquence en 2 séquences plus petites, ce qui réduit la complexité des calculs. L’implantation de cet algorithme sur un processeur de calcul porte le nom d’implantation Butterfly. Une transformée en nombres de Fermat de dimensionM= 2 n avec0≤n≤b= 2 t peut être calculée en utilisant le principe de l’algorithme FFT de la manière suivante: 〈X k = M−1 ∑ n=0 x n α nk = M 2 −1 ∑ n=0 x 2n α 2nk + M 2 −1 ∑ n=0 x 2n+1 α (2n+1)k 〉 F t 〈X k = M 2 −1 ∑ n=0 x 2n α 2nk +α k M 2 −1 ∑ n=0 x 2n+1 α 2nk =G k +α k H k 〉 F t (2.27) Avec évidemmentG k etH k des vecteurs représentant respectivement les transformées en nombres de Fermat des séquences{x 2n } M 2 −1 n=0 et{x 2n+1 } M 2 −1 n=0 de longueur M 2 . Comme〈α M = 1〉 F t ⇒〈α k+ M 2 =−α k 〉 F t car〈α M = 1 = (−1) 2 = (α M 2 ) 2 〉 F t . 35 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON En fin de compte,    X k =G k +α k H k X k+ M 2 =G k −α k H k k∈[0, M 2 −1]⊂N. Ce découpage de la séquence en 2 parties égales peut être repété pour décomposer la transformée de longueurM= 2 b en{4,8,···, M 2 parties. Toute FNT peut ainsi être calculée grâce àlog 2 (2 b ) =b décompositions. Comme Mb 2 transformées de longueur de séquenceM= 2. Il faudra à chaque étape 2 opérations simples et une multiplication. D’où le total exigeraMlog 2 M additions et M 2 log 2 Mmultiplications pour réaliser une FNT. 2.3.4 La convolution rapide Le calcul de convolution de deux séquences deMéchantillons exige l’application de3transformées en nombre entiers de longueur2M, les séquences étant étendues par des zéros. Soit deux séquences de longueurMchacune donnée par{x(n)} M−1 n=0 et{h(n)} M−1 n=0 , la convolution de ces deux séquences par le principe de la convolution rapide consiste à procéder de la manière suivante: Algorithme 1 (Convolution rapide par NNT)• Formation de deux séquencesx 1 etx 2 à partir de la séquence{x(n)} M−1 n=0 par:                x 1 (n) =    x(n)0≤n < M 2 0 M 2 ≤n < M x 2 (n) =    0M≤n < M 2 x(n) M 2 ≤n < M • Définirh 1 eth 2 de manière identique. • Calculer les transformées en nombres de Fermat des séquences ainsi construites. SoientX 1 ,X 2 ,H 1 etH 2 les transformées correspondant respectivement aux séquences construites ci-haut. Ne pas oublier que: X(k) =〈X 1 (k) +X 2 (k)〉 F t et idem pourH(k)(2.28) • Former trois nouvelles séquences notées{U},{V}et{W}de la manière suivante: 36 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?]          U(k)=〈H(k)•X(k)〉 F t V(k)=〈H 1 (k)•X 1 (k)〉 F t W(k) =〈H 2 (k)•X 2 (k)〉 F t avec le•représentant une multiplication terme à terme des séquences. • Calculer les transformées inverses de ces dernières séquences. Elles seront notées:u(n), v(n)etw(n)respectivement. • Soity=x∗hle résultat de la convolution des séquencesxeth. On aura enfin que: y(n) =                v(n)pour0≤n < M 2 〈u(n)−w(n)〉 F t pour M 2 ≤n < M 〈u(n−M)−v(n−M)〉 F t pourM≤n < 3M 2 w(n)pour 3M 2 ≤n <2M A la différence du calcul de convolution usuel qui demande dans le pire des cas 3 transformées en nombres entiers de longueur2M, cet algorithme exige plutôt7transformées de longueurM et cela est plus avantageux en terme de minimisation du nombre d’opérations complexes (les multiplications). 2.3.5 Multiplication optimale des matrices [8] Le produit de deux matrices représente le plus souvent une charge de calcul assez importante. Une méthode qui a des performances nettement supérieures à celles de la méthode usuelle, surtout pour des matrices de grande dimension, existe et consiste à transformer la multiplication des matrices en un produit de convolution (convolution des séquences composées des coefficients des deux matrices). Ce dernier pouvant finalement être rapidement et facilement calculé grâce aux algorithmes de calcul rapide du produit de convolution dont celui présenté à la section précédente, après une FNT calculée suivant ce qui est montré à la section 2.3.3. Algorithme 2 (Multiplication rapide des matrices)SoientA(a ij )etB(b ij )deux matrices carrées de dimensionM. Leur produitC(c ij )peut s’écrire sous forme polynomialeR(x) =P(x)Q(x), les coefficients dePetQétant trouvés respectivement par: 37 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON    p i+jM =a ij q M(M−1−i+jM) =b ij Avec0≤i,j < Met tous les coefficients non définis égaux à0. Et par multiplication simple des polynômes ou par convolution 6 des séquences qui sont constituées respectivement par les coefficients dePetQon trouveR(x). Les coefficients du produit deAetB sont alors donnés par: c ij =r M 2 −M+i+jM 2 Une convolution faite après FNT tout en appliquant les méthodes rapides et optimales mentionnées dans les parties précédentes permet de réaliser le produit des matrices avec moins deM 3 opérations complexes (multiplications) comme c’est le cas pour une multiplication par la méthode classique. Cette manière de faire sera très utile pour la suite car, avec ce qui est introduit à la section suivante on se rend copte qu’on aura plus besoin de manipuler régulièrement des matrices et des produits de convolution. 2.4 Traitement par bloc des algorithmes d’annulation d’écho 2.4.1 Introduction L’annulation d’écho sera réalisée par un filtre adaptatif. Le filtre à utiliser se doit d’être le plus rapide (vitesse de convergence) et le moins complexe (complexité de calcul) possible. Le filtre PNLMS++tel que présenté précédemment est le candidat idéal à ces deux exigences. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences). Pour cela, l’adaptation sera effectuée plutôt chaque aprèsNtermes de la séquence considérée. Il faudra néanmoins noter que, bien que cette méthode est très avantageuse quant à la réduction 6 Une multiplication des polynômes est équivalente à un produit de convolution des séquences formées par les coefficients des dits polynômes rangés selon le degré croissant. 38 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO du nombre de multiplications, elle a le défaut d’accroître considérablement le nombre d’opérations simples (les additions et les décalages de bit). Pour palier à cet inconvénient et rendre les algorithmes encore plus efficaces, on applique une méthode dite dusliding généraliséqui permet d’éviter plus particulièrement certaines redondances dans les calculs, rendant ainsi les algorithmes plus optimisés (cela pourra être pris en compte lors de l’implantation des algorithmes et non au cours de cette présentation théorique). Prenant toujours référence à la section sur les filtres adaptatifs, nous devons définir certains concepts vu que les quantités qui étaient auparavant des scalaires à chaque adaptation deviennent alors des vecteurs. Etant donné que l’adaptation survient chaque aprèsNéléments de la séquence considérée, tous les blocs (sauf éventuellement le dernier) contiennentNtermes pris dans l’intervalle [kN,kN+N−1]aveckdésignant le numéro du bloc (de l’itération). Les termes de bloc sont donc les suivants: y k = ( y(kN)y(kN+ 1)···y(kN+N−1) ) T y w k = ( (y w (kN)y w (kN+ 1)···y w (kN+N−1) ) T ε k =y k −y w k = ( ε(kN)ε(kN+ 1)···ε(kN+N−1) ) T S k = ( s(kN)s(kN+ 1)···s(kN+N−1) ) T . La définition que nous venons de donner pourS k est plus valable si on se base sur une compréhension brute du concept des blocs. Néanmoins, une manière plus pratique de la définir est de poser qu’elle vaut :S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T , ainsi on prend également en compte la longueur du filtre (pour notre cas, le filtre est de longueurp). La sortie qui est obtenue par convolution du signal en entréeS(n)par la réponse impulsionnelle du filtre sera finalement écrite de manière globale sur le bloc comme suit: y w k =         s(kN)s(kN−1)···s(kN−p+ 1) s(kN+ 1)s(kN)···s(kN−p+ 2) . . . . . . . . . s(kN+N−1)s(kN+N−2)···s(kN+N−p)                 w k (0) w k (1) . . . w k (p−1)         =R k W k 39 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON AvecR k unematrice de Toeplitzde taillep×Netpla longueur du filtre comme mentionné au premier chapitre. Tout en considérant qu’un terme notéw k (n)correspond, à la lumière de la notation du premier chapitre, au coefficientw n du filtre à lak ieme itération. 2.4.2 Algorithmes proprement-dits [1] Pour le cas le plus simple,algorithme LMS par blocsnotéBLMS(Bloc Least Mean Squares), l’erreur quadratique calculée sur un bloc de données sera donnée par:ε T k ε k au lieu deε 2 (n) comme c’était le cas auparavant. Ce qui est évident vu que c’est une généralisation de la fonction élévation au carré. Sachant queS(j)répond à sa définition donnée à la fin du premier chapitre, les coefficients du filtre seront mis à jour grâce à: W k+1 =W k − 1 2 λ∇(ε T k ε k ) =W k − 1 2 λ ∂(ε T k ε k ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (ε(j)) 2 ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (y(j)−S(j) T W k ) 2 ) ∂W k =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN (y(j)−S(j) T W k )(S(j) T )} =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN S(j)ε(j)} =W k +λR T k ε k Et la formule ainsi obtenue peut être réécrite sous la forme d’une convolution car: R T k ε k = (k+1)N−1 ∑ j=kN S(j)ε(j)} ⇒(R T k ε k ) i = (k+1)N−1 ∑ j=kN ε(j)s(j−i) =ε(i)∗s(−i) 40 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO Avec0≤i≤(p−1)pour ne pas dépasser la longueur du filtre et∗le produit de convolution discrète. Les éléments du vecteur d’erreurε k de longueurN, lesε(kN+m)avec0≤m≤N−1peuvent également être exprimés sous forme d’une convolution car on sait que: ε(kN+m) =y(kN+m)−y w k (kN+m) =y(kN+m)− p−1 ∑ i=0 w k (i)s(kN+m−i) =y(kN+m)−w k (m)∗s k (m) Avecs k (m)désignant le terme numéromdans le bloc numérokdu signal d’entrée. Dans ce qui précède il faut remarquer que normalement la convolution a été arrêtée à la longueur du filtre (p). Les deux manipulations qui précèdent seront perpétuées partout où cela sera possible, pour transformer les expressions sous la forme de produit de convolution afin d’appliquer toutes les belles propriétés de la convolution discrète, en terme de réduction du temps de calcul principalement, par utilisation de la transformée rapide (en nombres de Fermat pour notre cas). Grâce au même raisonnement, nous pouvons obtenir les formules de mise à jour des coefficients du filtre pour tous les autres algorithmes. L’algorithme qui nous intéresse étant lePNLMS++, à cause de ses propriétés présentées au premier chapitre, la version par blocs (le BPNLMS++) sera donnée par: • Pour la partie paire (correspondant auBNLMS), W k+1 =W k + λ R ss (k) +β (ε k ∗S −k )(2.29) AvecR ss (k)la fonction d’autocorrélation du signal, soitS k ∗S −k . • Pour la partie impaire (correspondant auBPNLMS), W k+1 =W k + λG k G k R ss (k) +β (ε k ∗S −k )(2.30) AvecS −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T 41 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON Dans la mise en oeuvre pratique de ces algorithmes, tous les éléments seront adaptés de manière à avoir des formes correctes (par ajout des zéros aux vecteurs le nécessitant et suppression de l’erreur ainsi introduite, à la fin des calculs). REMARQUES: Il faudra impérativement noter que les formules ici mentionnées, qui de toute évidence correspondent respectivement au processus de mise à jour des coefficients du filtre dans le cadre duBNLMSet duBPNLMS, ne sont que formelles.En effet, au sens mathématique strict elles ne seront pas valables au vu des dimensions des termes (pour s’en convaincre, il faut noter qu’après formatage des résultats,R ss (k)est de taillep×1,on ne prend que sespderniers termes, donc on ne peut pas l’additionner àβqui est un scalaire mais aussiG k étant une matrice de taillep×p, on aura aussi queG k R ss (k)est de taillep×1et donc même conclusion).Cette notation formelle signifie juste que, pour chaque itération, on calculer le vecteur de taillepdu numérateur et l’autre du dénominateur et le termew k (i)correspondra au résultat obtenu en appliquant la formule mais ayant considéré uniquement les termes numéroide chaque vecteur présent (au numérateur et au dénominateur).Nous y revenons plus clairement lors de l’élaboration de l’algorithme. 2.5 Conclusion partielle Ce chapitre a abordé le processus de filtrage numérique de manière à converger vers un filtre bien adapté à l’annulation d’écho sonore. L’algorithme choisi et adapté pour cet effet est lePNLMS++ qui est comme une synthèse des avantages de divers algorithmes conçus pour la cause précisée. Néanmoins, envisager une implantation plus optimale sur les processeurs de traitement du signal, nous permet de remarquer l’utilité d’introduire la transformée en nombres de Fermat, qui permet de réduire la consommation en ressources qui serait inutilement énorme en cas d’un traitement numérique classique. Le traitement dans le domaine de Fermat, allié à une manipulation des séquences par bloc de données, permet de réduire de manière assez sensible la complexité de calcul des algorithmes mis au point. L’introduction de la transformation en nombres entiers, nous est d’une importance capitale car c’est sur base d’elle que seront écrits, en langage de programmation dédié, nos algorithmes, si on veut les embarquer. 42 sur 84 Chapitre 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ 3.1 Introduction partielle Ce chapitre vient clore notre travail. Nous envisageons y présenter sommairement les éléments qu’il serait normalement nécessaire de concevoir pour réaliser un système de traitement numérique complet du signal. Toutefois, étant donné que notre travail consiste juste à élaboré le filtre, nous nous limiterons, pour les autres blocs de traitement du signal, à la description du minimum nécessaire pour comprendre l’ensemble. Ça veut dire que nous ne concevrons pas les autres parties, sinon nous nous serons totalement écarté du cadre de ce travail. Nous allons considérer que le reste est un acquis à ajuster seulement à la partie concernant le traitement que nous allons élaborer et implémenter sousMatlab. 3.2 Structure globale du système Notre système fonctionne selon la procédure classique de traitement du signal. De ce fait, il sera constitué des blocs habituels. C’est ainsi que la structure globale du système est telle que représenté sur la figure qui suit: 43 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.1: Chaîne typique de traitements du signal On y remarque que minimalement, un système de traitement complet devra contenir des éléments qui réalisent ces5étapes. A l’arrivée du signal il sera d’abord adapté au système, d’où le filtre anti-repliement. Ensuite, comme le traitement est numérique, il sera converti sous forme binaire par le Convertisseur Analogique-Numérique. Par après il subira un traitement adéquat (le filtrage numérique pour notre cas), puis la reconversion sous forme analogique grâce au convertisseur Numérique-Analogique. Finalement, on terminera la mise en forme du signal en le lissant grâce au filtre de lissage. 3.2.1 Filtre anti-repliement Le filtre anti-repliement est nécessaire pour faire respecter le théorème de Shannon, il évite le repliement de spectre auquel on assiste normalement si la condition de Nyquist-Shannon est violée par sous-échantillonnage (c’est-à-dire si la fréquence d’échantillonnage est inférieure au double de la fréquence maximale du signal échantillonné). Ce phénomène est pourtant de règle et n’est en rien une exception vu que normalement, les signaux réels ne sont jamais, stricto sensu, à support fréquentiel borné. Donc, les spectres réels s’étendent toujours jusqu’à l’infini (l’amplitude du signal tendant bien sûr vers0sans jamais s’annuler). Par conséquent, la condition de Nyquist-Shannon ne peut jamais être strictement respectée pour un signal réel. D’où l’importance d’un filtre anti- repliement. Le filtre n’est en effet qu’un passe-bas permettant de limiter la fréquence maximale prise par le signal à traiter pour que nous soyons sûr de choisir une fréquence d’échantillonnage valable (valeur non infinie). 44 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.2: Absence de repliement[7] Figure 3.3: Présence de repliement[7] Il est donc indispensable d’intercaler un filtre anti-repliement avant le convertisseur permettant le passage de l’analogique au numérique. C’est un filtre analogique passe-bas de fréquence de coupureFe/2(dans l’idéal). En pratique, le filtre passe-bas parfait n’existe pas et le repliement du filtre numériquef > Fe 2 est partiellement éliminé. La qualité se paie par l’utilisation d’un filtre anti-repliement élaboré (ordre élevé).[16] Ce filtre passe-bas doit avoir les caractéristiques suivantes: [12] 45 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ - Fréquence de coupure égale àF max ; - Variations de gain minimales dans la bande passante ; - Pente la plus raide possible après la coupure (Ordre élevé); - Atténuation hors bande passante adaptée au nombre de bitsnde la numérisation. En effet, les signaux parasites au-delà deF max vont être atténués par le filtre anti-repliement et se retrouver dans la bande du signal. Pour que ces parasites repliés ne soient pas gênant, il suffit que leur niveau soit suffisamment faible c’est à dire d’un niveau inférieur à la résolution du convertisseur analogique-numérique. En conclusion, le filtre anti-repliement ne supprime pas le phénomène de repliement, mais atténue le signal replié au point de le rendre négligeable. 3.2.2 Convertisseurs Analogique-Numérique et Numérique-Analogique Depuis une trentaine d’années, le traitement numérique des données prend le pas sur les approches purement analogiques. Le recours au numérique permet en effet un stockage aisé de l’information, une excellente reproductibilité des traitements, la possibilité de développer relativement aisément des fonctionnalités complexes, une réduction des coûts de production, etc. L’interface nécessaire entre le monde analogique et un traitement numérique donné est réalisé par des convertisseurs analogique–numérique (CAN, ouADCpourAnalog to Digital Converteren anglais) et numérique–analogique (CNA, ouDACpourDigital to Analog Converter). Le rôle d’un CANest de convertir un signal analogique en un signal numérique pouvant être traité par une logique numérique, et le rôle d’unCNAest de reconvertir le signal numérique une fois traité en un signal analogique.[18] Pour réaliser laconversion analogique-numérique, trois opérations sont nécessaires. Il s’agit, par ordre d’apparition, de l’échantillonnage, de la quantification et du codage. L’échantillonnage du signal doit être fait en tâchant de respecter le théorème de Shannon.Le processus est clairement illustré grâce à la figure qui suit: 46 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.4: Echantillonnage-Quantification-Codage[18] On distingue deux grandes familles de CAN basées sur deux approches différentes du processus d’échantillonnage : lesCAN classiquesdont la fréquence d’échantillonnage est telle que le spectre du signal converti occupe quasiment toute la bande de Nyquist (Nyquist Rate ADC) et les CAN à sur-échantillonnage (Oversampling ADC) dont seule une partie réduite du bruit de quantification (erreur de quantification) affecte le signal converti.[18] Si la fréquence d’échantillonnage est bien choisie, la seule erreur introduite au cours du processus de numérisation résulte de l’approximation faite en codant un nombre infini de valeurs analogiques par un nombre fini2 n de niveaux binaires. Le numérique n’est donc évidemment pas parfait, seulement on peut, en augmentant le nombre de bitsn, diminuer autant qu’on veut l’erreur introduite par la numérisation. Avec , comme objectif, de maintenir l’erreur de quantification en dessous du seuil de sensibilité de l’oreille humaine. Plus le nombre de bits augmente, plus le rapport signal sur bruitSNRs’améliore.[12] Après cette transformation, les données se dirigent vers un processeur de traitement numérique. Un traitement fait en virgule fixe est de toute évidence la plus indiquée pour être plus optimal. Il doit être considéré en cas d’implantation des algorithmes sur DSP vu que les ressources sont limitées. Le convertisseur numérique-analogique permet de communiquer d’un système numérique vers un système analogique. Il convertit donc un nombre binaire en une tension (ou un courant) qui lui est proportionnel. L’entrée est numérique et se note formellementN= (b n−1 ...b 1 b 0 ) 2 avec lesb i ∈{0,1},Nl’entrée numérique etnla résolution numérique (nombre de bits). La sortie est analogique et dans un premier temps, la conversion analogique-numérique se fait simplement paru S =Nq+u S min avec u S la tension à la sortie du convertisseur etqlequantum ou résolution analogique(en Volts).[17] 47 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Par ce qui précède on aura de toute évidence une sortie discrète du fait que les conversions sont réalisées à chaque arrivée d’un échantillon. Pour pallier à cela, le CNA a un système permettant le maintient de la tensionu S en sa sortie, jusqu’à l’arrivée d’un nouvel échantillon. On obtient alors en sortie, unsignal analogique en escalier. Il a ainsi un spectre fréquentiel comportant des fréquences supérieures à la fréquence maximale du signal de base. Cela est dû aux changements brusques observées pour une forme en escaliers. Il est par conséquent important delisserce signal en supprimant les composantes de fréquence élevée pour obtenir finalement un signal à variations majoritairement moins brusques et/ou plus proche du signal analogique désiré. 3.2.3 Filtre de lissage C’est le dernier élément de la chaîne de traitement du signal. Comme dit dans la section précédente, il permet de lisser le signal en escalier qu’on obtient à la sortie du CNA. Le lissage se fait par suppression des fréquences supérieures à la fréquence maximale du signal d’entrée (moitié de la fréquence d’échantillonnage). Il s’agira donc d’un filtre passe-bas comme pour le premier élément de la chaîne (filtre anti-repliement). On en illustre l’importance grâce aux figures qui suivent [18] : Figure 3.5: Positionnement du filtre de lissage Figure 3.6: Processus complet de conversion N/A (signaux associés) 48 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME 3.2.4 Traitement Une fois les données numérisées, elles sont finalement traitées. Le traitement se passe dans un processeur de traitement numérique. Il existe une multitude de processeurs, et également un grand nombre d’architectures utilisées. Néanmoins, certains processeurs sont optimisés pour le traitement du signal. Il s’agit desDSP(Digital Signal Procesing) dont on a sommairement parlé dans les parties précédentes. LeDSPest un microprocesseur optimisé pour exécuter des applications de traitement numérique du signal (filtrage, extraction des signaux, etc.) le plus rapidement possible. Ils sont utilisés dans la plupart des applications du traitement numérique du signal en temps réel. On les retrouve ainsi dans les modems, les téléphones mobiles, les appareils multimédia, les récepteurs GPS, les chaînes de traitement de son,... En bref, partout où l’on reçoit un signal complexe que l’on doit modifier à l’aide du filtrage. UnDSPfournit des instructions usuelles comme la multiplication, l’addition, la soustraction, etc. Mais son jeu d’instructions est élaboré de manière à exécuter des opérations très courantes dans des algorithmes de traitement du signal les plus usuels. Des nombreux algorithmes de traitement du signal ont par exemple besoin d’effectuer rapidement des multiplications suivies d’une addition. LesDSPaccélèrent ces genres de calcul en fournissant des instructions capables de multiplier deux nombres et d’en additionner un troisième en une seule fois (en un cycle d’horloge). CertainsDSParrivent même à réaliser plusieurs opérations complexes de ce genre en un seul cycle d’horloge. La majorité desDSPcalculent exclusivement avec des nombres à virgule fixe. L’absence d’unité en nombre flottant rend le composant meilleur marché tout en permettant une grande vitesse de traitement des données. CertainsDSPpossèdent cependant des unités de calcul en virgule flottante pour des applications exigeant une large dynamique des valeurs ou une grande précision relative des résultats. Ils peuvent être combinés avec d’autres composants dans le même boîtier. C’est ainsi par exemple qu’on a, dans un même, leDSPet les convertisseurs (Convertisseur Analogique- NumériqueetNumérique-Analogique).Dans un appareil équipé d’un DSP, la vitesse d’exécution des calculs dans ce dernier est généralement la partie déterminante de la vitesse d’exécution du travail effectué par la machine.[19] 49 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Au vu de ce que nous venons de montrer dans le paragraphe précédent, leDSPest la solution indiquée pour un système embarqué complet. Pour notre cas, sachant que nos ordinateurs sont équipés des processeurs assez rapides qui arrivent à réaliser le traitement des données avec une vitesse suffisante pour que nous testions de fonctionnement réel de notre système, nous réaliserons dans un premier tempsnotre système en nous servant de l’ordinateur. Les caractéristiques utiles de ce dernier sont précisées dans la section traitant de l’élaboration de l’algorithme. Il s’avère alors indubitable que, comme le traitement que nous mettons au point est un filtrage, avec comme objectif l’annulation d’écho sonore, cette partie (le traitement) suffit pour tirer des conclusions pertinentes sur le système et pour envisager (projet à long terme selon la demande ou le besoin) finalement une production du matériel conçu selon ce travail. Donc, le filtre anti- repliement et autres éléments de la chaîne de traitement du signal ne seront pas conçus par nous mais nous nous servirons de ceux de la carte son de l’ordinateur (pour le test du fonctionnement) et ceux qui seraient couplés au boîtier du DSP (en cas de production matérielle). 3.3 Élaboration de l’algorithme et présentation du système Nous allons réaliser l’annulation d’écho par utilisation de l’algorithmeBPNLMS++, les coefficients seront donc réinitialisés selon le principe illustré par les formules 2.29 et 2.30 AvecS k etS −k définis respectivement par S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T et S −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T . Les deux sont tous de longueurN+p−1prenant directement en compte la longueurpdu filtre ainsi que la tailleNdes blocs d’échantillons. Ce qui précède nous fait immédiatement remarquer que les deux vecteurs ont les mêmes termes mais arrangés en ordre inverse. Mathématiquement, ça correspond à dire queS −k s’obtient en multipliantS k par une matrice carrée de dimensions adéquates et dont tous les termes sont nuls sauf la diagonale secondaire qui sera totalement constituée des1. 50 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 3.3.1 Élaboration de l’algorithme d’apprentissage Soit à utiliser un processeur à16bits, ce qui correspond au dernier nombre premier de Fermat, le cinquième pour être exact. En effet, si nous choisissonsb= 16, ça veut dire que dans la forme canonique des nombres de Fermat introduits à la sous-section 2.3.1 nous avons quet= 4, soit donc que le nombre de Fermat en question est2 2 4 + 1 = 2 16 + 1 = 65537 =F 4 . Ce choix est judicieux vu que nous comptons faciliter les calculs par transformée en nombres de Fermat (FNT), car là on a bel et bien un nombre de Fermat valable (un nombre premier en l’occurrence et en plus le plus grand nombre premier de Fermat connu). Aussi, étant donné ce que nous avons considéré à la sous-section 2.3.2, entre autres les définitions selon lesquellesM= 2 t+1−i et〈α= 2 2 i 〉 F t , en choisissant par exemplei=−2on obtient une longueur de transformationM= 128et〈α= 4 √ 2〉 F 4 = 4938. Voulant conserver le fait selon lequel on ne peut pas transformer une séquence de longueur supérieure à la longueurMde la transformée, nous devons faire remarquer que vu queS k etS −k sont de longueurN+p−1, on doit impérativement respecter la conditionM≥N+p−1ou alors prendre N+p−1< Mpour le compléter ensuite jusqu’à la longueurM. Alors, pour choix on peut prendre par exempleN= 64etp= 64(deux moitiés deM). Sur base de cela, nous aurons les étapes de l’algorithme : 1°)Acquisition et préparation du signal à manipuler; 2°)Écriture des fonctions qui réalisent la FNT et son inverse Après extraction du signal, nous pourrons être amenés à effectuer une transformée en nombres de Fermat sur le vecteur constitué des échantillons. Pour cela, nous devons réaliser ce qui suit: 1. Fonction réalisant la transformée de la séquence de longueur fixéeM; 2. Fonction réalisant la transformée inverse d’une séquence de longueur identique; 3°)Écriture d’une boucle devant réaliser l’apprentissage (adaptation du filtre) : 1. Fenêtrage d’un bloc de64échantillons du signal d’entrée; 51 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ 2. Construction globale du signal d’entrée à considérerS k en faisant précéder les64 échantillons dep−1derniers échantillons provenant du signalS k−1 ; 3. Vu qu’ainsi on aS k de longueurM= 128termes en le complétant, calcul de sa FNT par appel de la procédure correspondante; 4. Initialisation des coefficients du filtre (comme notre filtre est de longueurp= 64, nous prendrons pour filtre initial, un filtre dont tous les64termes sont tous nuls); 5. Complément des coefficients du filtre par des 0 par ajout deM−ptermes nuls pour obtenir un vecteur pouvant subir une FNT de longueurM; 6. Calcul de la FNT du vecteur ainsi formé par appel de la procédure correspondante; 7. Calcul du produit terme à terme de ces deux FNT précédemment obtenus (Transformée deW k complété multipliée par la transformée deS k ; 8. Calcul de la FNT inverse du produit obtenu par appel de la procédure dédiée (cela donne le produit de convolution des coefficients du filtre par le signal d’entrée. Donc on obtienty w k dont seuls lesNderniers termes correspondent auxNvrais échantillons formanty w k ; 9. Formatage dey w k par élimination desM−Npremiers termes inutiles. Pour cela, on multiplie une matrice de tailleN×Mdont lesM−Npremiers termes de chaque ligne sont tous nuls et l’autre partie est semblable à une matrice unitaire de tailleN(c’est-à- dire que tous ses termes diagonaux sont égaux à1) par le vecteury w k obtenu après la transformation inverse de l’étape précédente ; on obtient après cette multiplication, une matriceN×1qui correspond effectivement au vrai vecteury w k recherché; 10. Calcul du vecteur d’erreur par comparaison (une différence) de la valeur trouvéey w k avec la valeur désiréey k ; 11. Complément de ce vecteur par des 0 jusqu’à obtenir un vecteur de longueurMcar c’est bien cela la longueur de la transformée que nous avons choisi d’utiliser (on aura ajouté alorsM−Ntermes nuls); 12. Calcul de la FNT du vecteur d’erreur ainsi complété; 52 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 13. Construction du vecteur imageS −k en multipliant le vecteurS k déjà bien formaté et complété par une matrice de tailleM(matrice carrée donc) dont tous les termes sont nuls à part ceux de la diagonale secondaire qui sont tous égaux à1. La multiplication de cette dernière matrice parS k a donc pour effet de renverser l’ordre de ses termes; 14. Calcul de la FNT de ce vecteur image; 15. Calcul du produit terme à terme de ce vecteur image transformé avec le vecteur d’erreur transformé; 16. Calcul de la transformée inverse du résultat ainsi obtenu (la réponse correspond au vecteurε k ∗S −k dont seuls lespderniers termes forment le vrai vecteur recherché; 17. Formatage du résultat obtenu en lui appliquant une matrice que nous nommonsE, de dimensionp×Mpour obtenir au final un vecteur de taillep. Pour cela on multiplie la matrice construiteEpar le résultat obtenu à l’étape précédente. Cette matrice en est en fait une dont lesM−ppremiers termes de chaque ligne sont nuls et l’autre partie est comme une matrice carré de taillep×pdont les termes de la diagonale principale sont tous égaux à1et les autres sont tous nuls (matrice unitaire de taillep); 18. Calcul du produit terme à terme du vecteur d’entréeS k transformé avec son vecteur imageS −k aussi transformé; 19. Calcul de la transformée inverse du précédent produit (cela nous permet d’obtenir la fonction d’autocorrélation du signal d’entréeR ss (k) =S k ∗S −k qui est aussi réduit à sespderniers termes en lui appliquant la matriceEcomme cela a été fait à l’étape17; 20. Construction de la matrice diagonaleG k de taillep×ptel qu’elle fut définie à la sous- section 2.2.5; 21. Calcul des vecteursG k .(ε k ∗S −k )etG k .R ss (k); 22. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBNLMS(tout en tenant compte de la dernière remarque de sur l’état formel des formules duBNLMSet duBPNLMS). On appliquera donc précisément 53 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ W k+1 (i) =W k (i) + λ [R ss (k)](i)+β [(ε k ∗S −k )](i) ; 23. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBPNLMSen tenant également compte du fait que la formule s’exprime réellement par : W k+1 (i) =W k (i) + λ [G k R ss (k)](i)+β [G k (ε k ∗S −k )](i) ; 24. Construction du vrai vecteur des coefficients du filtre en prenant tous les termes impairs égaux aux termes impaires correspondants du vecteur trouvé à l’étape précédente et les termes pairs aux termes pairs correspondant du vecteur trouvé à l’étape22(ainsi on vient de réinitialiser le filtre en appliquant leBPNLMS++); 25. Relance de la boucle jusqu’au nombre d’itérations voulu. 4°)Fin de la boucle, renvoi des valeurs figées des coefficients du filtre en les formatant si nécessaire 3.3.2 Présentation du système réel Après cette étape d’apprentissage, on obtiendra les coefficients du filtre qui modélisent au mieux la réponse impulsionnelle de l’enceinte considérée. Ainsi, comme mentionné à la sous-section 1.3.1, le signal d’écho obtenu dans l’enceinte considérée peut bel et bien aussi s’obtenir,dans les mêmes conditions, par convolution du signal d’entrée avec le vecteur formé des coefficients du filtre ainsi construit. Cette solution est cruciale et déterminante pour l’efficacité et la rapidité 1 des systèmes de communication. En effet, annuler directement l’écho grâce à un modèle numérique équivalent à l’enceinte utilisée, nous permet : • De ne pas avoir à empêcher un locuteur de parler lorsque l’autre parle; 1 Sans ignorer les autres avantage d’un système d’annulation d’écho tout court. 54 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS • De simuler l’écho venant de n’importe quelle source (sélectionner un signal en particulier dont on veut extraire l’écho) pour ensuite le soustraire du signal qu’on compte transmettre. Ce qui serait carrément impossible sans cette modélisation de la réponse de la salle. Le système se résume donc ainsi : Deux interlocuteurs ayant chacun un combiné de communication, équipés chacun d’un système d’annulation d’écho, sont dans deux enceintes différentes (et dans la même enceinte à la limite ; mais c’est sans intérêt). On procède premièrement à une phase d’apprentissage où, un son de quelques secondes est émis par le haut-parleur des combinés de chaque locuteur et le filtre de chaque combiné est mis à jour. Ensuite s’établit la communication entre les deux interlocuteurs où, chaque fois que l’une des sources émet un signal, on en soustrait la modélisation de l’écho du signal venant de l’autre. Ainsi, aucun des deux ne peut réentendre sa voix à travers son haut-parleur. Cela résout le problème d’écho acoustique associé au système de communication considéré. Dans la suite (pour les essais) nous n’allons considérer qu’un interlocuteur.Pour cela, le signal venant de l’autre sera juste appelésignal lointainet celui qui vient du locuteur présent dans la salle d’expérimentation sera ditsignal local. Cela nous permettra de réaliser l’adaptation du filtre et de vérifier si le filtre obtenu modélise bel et bien l’enceinte prototype. 3.4 Implémentation de l’algorithme et simulations Dans cette section, nous allons écrire l’algorithme élaboré dans la section précédente en langage Matlab (qui a évidemment une syntaxe proche duCet qui nous permettra aumoins de réaliser des expérimentations de manière moins complexe). Utilisant un processeur à virgule flottante (celui de l’ordinateur), nous n’allons pas nous cramponner sur le formatage du signal d’entrée. Par conséquent, la transformation de Fourier va suffire pour avoir un aperçu de l’algorithme global. 3.4.1 Traitement brut des données Ce traitement revient à réaliser l’adaptation des coefficients du filtre à la manière dont la théorie a été élaborée au début du second chapitre. Donc sans optimiser le temps de calcul avec un traitement 55 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ par blocs. Nous allons donc réaliser un algorithme d’adaptation évoluant échantillon par échantillon et non par blocs. Ceci est utile pour remarquer la précision de ce traitement malgré le manque de robustesse et la charge de calcul. L’algorithme élaboré pour cet effet est ,sousMatlab, donné par l’annexe .1 . La compilation de ce code a duré12.424632secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour un signal d’entrée pris enregistré sur40secondes(voir la ligne12de ce code) pour pouvoir pousser très loin l’adaptation (jusqu’à20850tours de boucle principaux comme on le voit à la ligne43de ce code). Le signal d’entrée était: Figure 3.7: Signal d’entrée utilisé Pouri= 20850tours de boucles (voir la ligne43du code), nous avons obtenu les coefficients du filtre représentés en fonction des numéros d’échantillons par: 56 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.8: Valeurs des64coefficients du filtre Sous cette forme, on a remarqué que la convergence du filtre est relativement lente bien que le résultat soit plus parfait. On va le montrer clairement dans les sections suivantes. 3.4.2 Traitement par bloc des données L’algorithme utilisé et qui suit les étapes décrites précédemment (à la section 3.3.1 qui concerne l’élaboration de l’algorithme conseillé pour un implantation sur DSP) est donné à l’annexe .2 . Il est très important de signaler que bien que les étapes décrites lors de l’élaboration textuelle de l’algorithme soient faites pour le cas d’un traitement par FNT etpour un processeur à virgule fixe fonctionnant sous16bits, le fait que nous ayons utilisé un processeur sous64bitset la transformée de Fourier est tout à fait admissible. L’algorithme textuel a juste été élaboré pour considérer le cas le plus général et pour nous guider dans l’implémentation, surtout que cela permet également d’optimiser à la fois les coûts et l’exploitation des ressources. On remarque des simplifications drastiques en ce qui concerne le formatage des vecteurs. C’est ainsi qu’à la ligne73de ce code (annexe .2 ), on remarque qu’au lieu de multiplier le vecteur à128 57 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ termes par une matrice particulièreE(comme nous le suggère le point3en son étape17de la sous- section 3.3.1 sur les étapes de l’algorithme),Matlabnous permet d’extraire très simplement ces derniers termes. C’est le cas également aux lignes62et77(annexe .2 toujours) où les manipulations sont grandement simplifiées par rapport à ce que nous proposions au préalable. Ces propositions ont tout de même le mérite d’être plus générales comme méthode et donc utilisables même quand le langage ne permet pas une manipulation très simple des matrices. La compilation de ce code a duré8.219884secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour le même signal d’entrée que précédemment (voir la ligne 12de ce code et la figure 3.7) pour pouvoir pousser très loin l’adaptation. Ainsi on a obtenu en fonction des numéros d’échantillons le filtre suivant: Figure 3.9: Les64coefficients du filtre 2 Le filtre obtenu ici par contre est moins précis mais s’obtient plus vite à cause de la grande vitesse de convergence des algorithmes de traitement par bloc. Normalement, suite aux manipulations des vecteurs, on obtient unfiltre renversé et décalécomme on le voit sur cette figure: 58 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.10: Les64coefficients du filtre 2 non formatés De cela on obtient très aisément la courbe recherchée trouvée à la figure 3.9 grâce au formatage des coefficients, réalisé avec le bout de code de la ligne112(annexe .2 ) donné par: w=((ones(1,64)) * (mean(w))-(w))/(mean(w)); Pour réaliser ce formatage, il suffit de détecter la valeur moyenne (on écritmean(w)). Pour notre signal d’entrée, le filtre non formaté avait pour moyenne(13.5)(voir la figure 3.10). 3.4.3 Essais comparés Essayons, pour le même signal d’entrée (figure 3.7), de trouver les coefficients du filtre pour les deux cas en considérant différentes valeurs dei(nombre d’itérations qu’on voit aux lignes43des codes qu’on a aux annexes .1 et .2 ) et observons l’évolution des coefficients. Nous prendrons des valeurs inférieures à20850car pour une boucle allant trop au delà, nous risquons de dépasser la longueur maximale des vecteurs. Notons que le signal d’entrée formaté sous forme vectorielle était de taille1764352échantillons. 1°) Pouri= 10000on obtient: 59 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.11: Coefficients du filtre 1 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement échantillon par échantillon (ce qui a duré6.073958secondes). On a pratiquement le bon filtre. Figure 3.12: Coefficients du filtre 2 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré3.920202secondes, presque la moitié du temps nécessaire au traitement brut précédent). C’est pratiquement les mêmes coefficients que ceux obtenus pour le cas où le nombre d’itérations était20850. 2°) Pouri= 1000on obtient: 60 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.13: Coefficients du filtre 1 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement échantillon par échantillon (a duré0.658588secondes). Malgré que la forme est bonne, les coefficients sont très faibles. Figure 3.14: Coefficients du filtre 2 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement par blocs d’échantillons (pour un temps de calcul de0.426955secondes). Malgré un léger décalage vers le haut, on a obtenu pratiquement le filtre final. 3°) Pouri= 100on obtient: 61 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.15: Coefficients du filtre 1 pour 100 itérations Coefficients, obtenus aprèsi= 100itérations par l’algorithme de traitement échantillon par échantillon (durée de compilation de0.079877secondes). Malgré que la forme commence déjà à se dessiner, les coefficients sont très faibles (c’est un filtre à coefficients quasi nuls). Figure 3.16: Coefficients du filtre 2 pour 100 itérations Coefficients du filtre, obtenus aprèsi= 100itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré0.057885secondes). La forme commence déjà à se dessiner mais les coefficients sont encore trop décalés vers le haut. 4°) Pouri= 10on obtient: 62 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.17: Coefficients du filtre 1 pour 10 itérations Au début de l’adaptation du filtre , les coefficients sont très mauvais. Cette figure représente l’adaptation du filtre échantillon par échantillon après10itérations. Figure 3.18: Coefficients du filtre 2 pour 10 itérations Au début de l’adaptation du filtre, les coefficients sont très mauvais. Pour10itérations, avec le traitement par blocs, on n’a toujours pas même l’esquisse des valeurs souhaitées. 4°) Il y a également deux valeurs particulières pour les deux implémentations, les valeurs dei auxquels les filtres auront presque complètement atteint les coefficients escomptés. Après plusieurs essais on obtient: •i= 4370pour le filtre en traitement brut (filtre 1) 63 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.19: Coefficients du filtre 1 pour 4370 itérations L’algorithme de traitement échantillon par échantillon donne des très bons coefficients mais après beaucoup d’itérations (i= 4370) et trop de temps (3.296686secondespour notre cas). •i= 400pour celui du traitement par blocs (filtre 2) Figure 3.20: Coefficients du filtre 2 pour 400 itérations L’algorithme de traitement par bloc permet d’obtenir après seulement0.173829secondes, des coefficients très proches des bonnes valeurs (bien que n’étant pas très affinés, ils 64 sur 84 3.5. ANALYSE DES RÉSULTATS ET EXPLICATION DE L’IMPLANTATION SUR DSP sont assez bons pour que le passage du signal à travers un filtre ayant des telles valeurs nous donne presqu’exactement la sortie souhaitée). 3.5 Analyse des résultats et explication de l’implantation sur DSP 3.5.1 Analyse des résultats Ce que nous venons d’obtenir à la sous-section 3.4.3 est très crucial pour remarquer la puissance du traitement par blocs. On remarque très bien que le filtre élaboré par un traitement échantillon par échantillon n’évolue pas très vite vers les vraies valeurs, et se dégrade très vite avec la réduction du nombre d’itérations, tandis que le traitement par blocs est à la fois rapide (en terme de temps de calcul) et converge plus vite vers le filtre optimal. Dans le code , à la ligne61pour le premier (annexe .1 ) et64(annexe .2 ) pour le second, on a spécifié que le résultat attendu à la sortie du filtre devait être, pour tester le fonctionnement de notre algorithme, le même signal mis à l’entrée (donc l’erreur est minimisée de manière à ce que le signal d’entrée soit le même que celui obtenu après avoir traversé le filtre). Or nous savons très bien que pour avoir une sortie identique à l’entrée, la réponse impulsionnelle du filtre doit être une impulsion toujours. Et évidemment, le filtre optimal que nous avons obtenu s’approche d’une impulsion comme on le voit très bien aux figures 3.8 et 3.9.Le premier est évidemment plus proche d’une impulsion que le second bien qu’obtenu grâce à un algorithme moins robuste. En effet, le premier algorithme, qui nous permet d’obtenir des meilleurs coefficients, converge très lentement et se dégrade très vite quand on diminue le nombre d’itérations; en plus il prend trop de temps pour donner les résultats. Pour s’en convaincre, voir les figures 3.11 puis 3.13 ensuite 3.15 et finalement 3.17, on remarque très bien dans peu de temps que l’amplitude des coefficients du filtre se dégrade très vite et que les coefficients eux aussi deviennent de plus en plus écartés des bonnes valeurs jusqu’à la dégradation complète à la dernière figure, la figure 3.17). Le second, celui obtenu grâce à l’algorithme de traitement par blocs et dont l’évolution des coefficients est représentée en ordre par les figures 3.12 puis 3.14 ensuite 3.16 et finalement 3.18, est moins précis mais nettement plus robuste que le premier. En effet, il demande peu de temps de calcul et se dégrade très lentement 65 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ quand on diminue le nombre d’itérations.Malheureusement, il nécessite d’importantes corrections d’erreurs. En bref, la comparaison des résultats représentés par les figures 3.19 et 3.20 nous montre nettement la supériorité du traitement par blocs par rapport au traitement échantillon par échantillon. On remarque très clairement la nécessité d’une implantation par blocs pour avoir un traitement en temps réel (voir les commentaires afférentes aux deux figures précédentes). 3.5.2 Explication de l’implantation sur DSP L’implantation sur DSP à virgule fixe et sous16bitsexige l’adaptation de l’algorithme élaboré (celui de l’annexe .2 ) de manière à ce qu’on puisse réaliser le même traitement. Pour cela, on n’a que deux choses particulières à réaliser: • Formater le signal d’entrée de manière à l’adapter au processeur si nécessaire et • Ecrire une fonction qui réalise la transformée en nombres de Fermat tel qu’on l’a décrite et opltimisé dans les parties précédentes ainsi que son inverse. En utilisant juste les formules données. Après avoir réalisé cela, le code sera exactement le même que celui qui a été élaboré pour le traitement par blocs en se basant sur l’esquisse qui a été faite de l’algorithme au point 3.3.1. Le formatage quant à lui, quand il est nécessaire, se réalise facilement par des manipulations simples (multiplications suivies des arrondissements). Cette dernière méthode introduit évidemment une erreur mais dès qu’on envisage de l’utiliser, on peutétudier la technique adaptée pour la réduction de l’erreur qui serait introduite à la fois par ce formatage et celui réalisé durant le filtrage. Après avoir ainsi adapté l’algorithme, il faudra alors l’écrire enassembleurpour adapter le code à l’architecture du DSP choisi ou carrément en langageC, laissant au compilateur le soin d’optimiser le code en l’adaptant au DSP (C’est la solution la plus simple en fait). 3.6 Annulation d’écho Notre travail a consisté principalement à élaborer le filtre qui peut s’utiliser pour annuler l’écho dans un système de communication. Nous allons montrer la meilleure annulation que nous avons pu 66 sur 84 3.6. ANNULATION D’ÉCHO obtenir avec les filtres conçus. Il s’agit de l’annulation grâce au filtre implémenté par l’algorithme en annexe .1 qui est le plus précis (l’autre est le plus indiqué en cas d’embarquement mais nécessite d’astucieuses corrections d’erreurs). Les coefficients de ce filtre sont donnés par la figure 3.8, il correspond presqu’exactement à une impulsion. On obtient d’abord la sortie et l’annulation par le codeMatlabsuivant 2 : 1-sortie=conv(w,myrecordings); 2-echoTransmis=(sortie(1:1608500))-(myrecordings(1:1608500)); Ce bout de code a été exécuté à part, mais après l’exécution de celui d’adaptation pour pouvoir utiliser les mêmes variables. Il réalise en sa première ligne, la convolution du vecteur formé par les coefficients du filtre avec le signal d’entrée (c’est le filtrage si on pose que le filtre est approximativement linéaire). A la deuxième ligne on réalise alors la suppression d’écho pour le cas où le signal n’est pas trop modifié par l’enceinte (comme nous l’avons posé pour tester la validité de nos codes). On a considéré1608500échantillons pour ne pas risquer de dépasser la taille totale des vecteurs car le signal en entrée avait environs1700000échantillons. Dans cette figure (a) Echo résiduel après filtrage. (b) Echo sans filtrage. Figure 3.21: Démonstration de l’annulation d’écho (la figure 3.21), nous comparons l’écho reçu après filtrage du signal à envoyer à l’interlocuteur lointain, avec l’écho qu’il recevrait si le filtage n’était pas préalablement réalisé. Plus précisément, 2 Se référer à l’annexe .1 pour remarquer quemyrecordingreprésente le signal en entrée 67 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ on réalise un filtrage pour modéliser l’écho, puis on le soustrait du signal à transmettre pour que l’interlocuteur lointain ne perçoive pas sa voix dans le signal qu’il recevra. Ainsi, en observant très bien les échelles des axes de ces figures, on remarque une atténuation très importante de l’écho. En effet, l’écho qui persiste après filtrage (voir la figure 3.21a) est environ ledixièmede celui qui est perçu lorsqu’aucun filtrage n’est réalisé 3.21b. Et on y voit très bien que pour ce dernier cas (absence de filtrage) l’interlocuteur lointain va entendre exactement son signal lui revenir. D’où la nécessité du filtrage. 3.7 Conclusion partielle Dans cette dernière partie, nous avons tout d’abord décrit les éléments principaux nécessaires à l’élaboration d’un système annulateur d’écho sans prendre en compte le fait qu’il peut être incorporé à un système déjà mis en place. C’est ainsi que nous avons vu en passant la chaîne de traitement du signal et finalement nous nous sommes focalisé sur la partie concernant le traitement proprement-dit par filtrage. Cela nous a conduit à élaborer l’algorithme d’adaptation des coefficients du filtre de manière détaillée sousMatlaben vu d’en évaluer le fonctionnement et l’adéquation aux résultats attendus. Et bien évidemment, nous nous attendions à un filtre semblable à une impulsion et nous l’avions obtenu de très près comme le prévoit la théorie. Nous avons finalement terminé par une illustration de l’annulation d’écho et une explication de l’implantation de l’algorithme sur DSP en système indépendant. 68 sur 84 CONCLUSION GÉNÉRALE Au début de ce travail, nous pensions devoir considérer en profondeur les phénomènes physiques sous-jacents à la propagation des ondes sonores. Au cours des recherches, nous nous sommes rendu bien compte qu’il était plus rapide et rentable de modéliser juste l’ensemble, pour pouvoir mener à bien le travail à un coût dérisoire. Il est en effet plus optimal de traiter les phénomènes complexes, comme les phénomènes de propagation du son en dehors des conditions de laboratoire, de manière approximative mais globale au lieu de les voir en détail. Comme cela a bien été souligné, l’approche détaillée est utopique vu que le coût de calcul est immensément énorme. En introduction, nous avons posé comme hypothèse, que le filtrage est une solution à la présence indésirée d’écho dans un système de communication, et ce travail vient évidemment de nous conforter dans cette affirmation. Nous avons également supposé qu’un filtrage purement analogique serait moins rentable mais nous nous sommes rendu compte au fil du travail que, cette proposition doit être bien nuancée. En effet, durant ce travail, nous avons montré que nous ne pouvons, si nous considérons le système dans son ensemble (et non seulement la partie qui concerne le traitement algorithmique), nous passer d’une partie de traitement analogique du signal (penser au filtre anti- repliement par exemple). Néanmoins, en nous basant uniquement sur le filtrage du signal reçu, sans trop nous fier au formatage et à la correction du rapport signal sur bruit, nous pouvons sans doute nous fier uniquement à un traitement purement numérique. Finalement, au vu du processus mis en œuvre pour l’adaptation du filtre annulateur d’écho, nous confirmons la troisième hypothèse lancée en introduction et affirmant qu’on ne peut se passer d’une mémorisation dynamique du signal durant une partie du traitement pour pouvoir mener à bien l’annulation de l’écho sonore lié au système de communication. 69 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Ce travail a pointé du doigt la puissance de la théorie mathématique de traitement du signal. C’est ainsi qu’il a pu déboucher sur le filtrage numérique et en premier lieu sur le filtrage de Wiener qui est évidemment un prélude inévitable pour aborder le filtrage adaptatif. Le filtrage adaptatif car, comme cela a été plusieurs fois mentionné, c’est le moyen par excellence pour pouvoir modéliser un système non stationnaire comme c’est le cas pour les systèmes sonores. Notre travail a donc consisté à élaborer un filtre numérique modélisant l’enceinte dans laquelle le son va se propager, de telle sorte qu’il ne puisse pas y avoir une grande différence entre le son perçu à la sortie du filtre et celui qui serait perçu après avoir parcouru la salle. Cela revient donc à modéliser le chemin d’écho. Pour cela, les coefficients du filtre élaboré doivent correspondre à la réponse impulsionnelle de l’enceinte (à l’endroit où l’on se tient pour la mesurer). Toutefois, les signaux sonores étant très instationnaires, il est impérieux d’adapter ces coefficients au fur et à mesure de la réception du signal. D’où la nécessité des filtres adaptatifs comme on l’a tantôt montré. Nous avons développé les algorithmes du filtrage adaptatif en nous focalisant sur les plus indiqués pour l’identification des système (le chemin d’écho pour notre cas). Cela nous a conduit à considérer un algorithme nomméPNLMS++qui est très indiqué dans des tels systèmes pour sa grande vitesse de convergence et sa robustesse. L’objectif visé est qu’en cas de besoin, les théories abordées dans ce travail puissent être exploitées directement pour élaborer des systèmes devant équiper des appareils de communication habituels pour l’annulation d’échos sonores éventuels. C’est pour cette raison qu’il nous a semblé très important de montrer de quelle manière on pourrait réduire toujours plus fortement la charge de calcul des processeurs numériques à utiliser ainsi que le coût (d’un point de vu pécuniaire) de l’ensemble. De toute évidence, les processeurs à virgule fixe sont les plus adaptés à l’élaboration des plate-formes à faible prix tout en gardant une efficacité admissible quand ils sont programmés en conséquence. Ils allient en fait la rentabilité financière à la précision en ce qui concerne notre projet. Ce qui précède justifie le choix d’un traitement tout à fait particulier des données pour les rendre adaptées le plus fortement possible aux processeurs à virgule fixe (il s’agit du traitement par transformation en nombres de Fermat en lieu et place de la transformation de Fourier). Cette nouvelle transformation a toutes les propriétés nécessaires pour développer et optimiser la majorité des processus d’annulation d’écho dès qu’on décide de les implanter sur un processeur à virgule fixe. 70 sur 84 3.7. CONCLUSION PARTIELLE Au préalable, nous prévoyions réaliser les algorithmes en langage C mais nous étant rendu compte du fait que cela serait sans intérêt( en première approximation), nous avons choisi de développer le système sous Matlab sachant que si on envisageait une implantation sur DSP, l’adaptation du code serait simple étant donné la similarité des syntaxes de ces deux langages. C’est sous cet angle que nous avons mis au point sous Matlab un algorithme complet d’adaptation des coefficient du filtre destiné à l’annulateur d’écho. Aux futurs chercheurs, nous suggérons l’étude complète de l’incorporation des algorithmes ici conçus, aux systèmes de communication complets ainsi que, la correction des erreurs introduites dans le filtre obtenu en cas de traitement par blocs, pour améliorer encore plus l’atténuation de l’écho par cette méthode vu que ce dernier traitement est le mieux adapté au fonctionnement en temps réel. 71 sur 84 ANNEXES 73 .1. ALGORITHME DE TRAITEMENT BRUT .1 Algorithme de traitement brut 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -yk=ones(1,64); 27 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 28 -b=100; 75 sur 84 29 -D=(1/64); 30 -rho=0.01; 31 -mu=0.8; 32 -%Initialisation des W pour NLMS puis PNLMS. 33 -w1=(ones(1,64))’; 34 -w2=(ones(1,64))’; 35 -%Initialisation des vecteurs utiles au calcul de Gk. 36 -gam=zeros(1,64); 37 -gk=zeros(1,64); 38 -%Initialisation des vecteurs d’erreur et de W. 39 -err=(1:64000); 40 -w=zeros(1:64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Récupération du vecteur d’entrée à chaque étape i 45 - sign=(myrecordings((64+(i-1)):-1:(1+(i-1))))’; 46 - 47 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 48 - Vk=max([D,abs(w)]); 49 - %Calcul du vecteur Gk 50 - for k=1:64 51 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 52 - end 53 - for M=1:64 54 - gk(M)=((gam(M))/(mean(gam))); 55 - end 56 - Gk=1 * diag(gk); 57 - %Calcul des éléments du vecteur d’erreur en gérant le début 58 - for s=1+(i-1):64+(i-1) 76 sur 84 .1. ALGORITHME DE TRAITEMENT BRUT 59 - sign2=(myrecordings((64+(s-1)):-1:(1+(s-1))))’; 60 - yk(s) = (sign2) * w’; 61 - err(s+63)=((yk(s)-myrecordings(64+(s-1)))); 62 - end 63 - 64 - %Début du processus de réinitialisation du filtre 65 - 66 - %Algorithme PNLMS (Calcul du vecteur W1) 67 - w1=(w’+(mu * Gk * ((sign)’) * err(i+63))/(sign * Gk * (sign)’+b))); 68 - %Algorithme NLMS (Calcul du vecteur W2) 69 - w2=(w’+((mu * ((sign)’) * err(i+63))/(((sign) * ((sign)’)+b)))); 70 - 71 - 72 - %Réinitialisation des coefficients du filtre par PNLMS++ 73 - 74 - for k=1:64 75 - %Coefficients impairs par PNLMS 76 - if mod(k,2)==1 77 - w(k)=w1(k); 78 - %Coefficients pairs par NLMS 79 - elseif mod(k,2)==0 80 - w(k)=w2(k); 81 - end 82 - end 83 -end 84 -%Fin du chronométrage 85 -toc; Revenir dans le texte en cliquant 3.4.1. 77 sur 84 .2 Algorithme de traitement par blocs 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage en respectant Shannon 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -w=zeros(1,64); 27 -zero=zeros(1,64); 28 -%Complément de W par des zeros pour atteindre la longueur réquise 78 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 29 -wk=[w,zero]’; 30 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 31 -b=100; 32 -D=(1/64); 33 -rho=(10^(-2)); 34 -mu=(0.8); 35 -%Initialisation des W pour BNLMS puis BPNLMS. 36 -w1=(ones(1,64))’; 37 -w2=(ones(1,64))’; 38 -%Initialisation des vecteurs utiles au calcul de Gk. 39 -gam=zeros(1,64); 40 -gk=zeros(1,64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Sélection particulier du premier bloc d’échantillons 45 - if i==1 46 - sign=(myrecordings(1:128))’; 47 - sign2=(myrecordings(128:-1:1)); 48 - %Sélection général de tous les blocs 49 - elseif i>=2 50 - sign=(myrecordings(65+64 * (i-2):192+64 * (i-2)))’; 51 - sign2=(myrecordings((192+64 * (i-2)):-1:(65+64 * (i-2)))); 52 - end 53 - 54 - %Transformation du signal d’entrée et du vecteur W 55 - SIG=fft(sign); 56 - W=(fft(wk))’; 57 - %Calcul du produit terme à terme des deux vecteurs 58 - Y=SIG. * W; 79 sur 84 59 - %Transformation inverse pour retrouver le produit de convolution 60 - YW=ifft(Y); 61 - %Sélection des termes utiles recherchés 62 - yw=YW(65:128); 63 - %Calcul du vecteur d’erreurs 64 - err=(myrecordings(1+64 * (i-1):64 * i))’-(yw); 65 - %Complément du vecteur par des zeros puis transformation 66 - ERR=[err,zero]; 67 - errF=fft(ERR); 68 - %Transformation du vecteur image 69 - SIG2=fft(sign2); 70 - %Réalisation de l’étape 3°) points 15, 16 et 17 de l’algorithme 71 - ERsign=(errF)’. * (SIG2); 72 - erSIGN=ifft(ERsign); 73 - es=erSIGN(65:128); 74 - %Réalisation de l’étape 3°) points 18 et 19 (autocorrélation) 75 - RSS=SIG2. * (SIG)’; 76 - RSs=ifft(RSS); 77 - Rss=RSs(65:128); 78 - 79 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 80 - Vk=max([D,abs(w)]); 81 - %Calcul du vecteur Gk 82 - for k=1:64 83 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 84 - end 85 - for M=1:64 86 - gk(M)=((gam(M))/(mean(gam))); 87 - end 88 - Gk=diag(gk); 80 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 89 - %Réalisation de l’étape 3°) point 21 90 - GkRss=Gk * (Rss); 91 - 92 - GkEsi2=Gk * es; 93 - 94 - %Réinitialisation des coefficients du filtre 95 - 96 - for j=1:64 97 - %Algorithme BPNLMS 98 - w1(j)=(w(j)+((mu * GkEsi2(j))/(GkRss(j)+b))); 99 - %Algorithme BNLMS 100 - w2(j)=(w(j)+((mu * es(j))/(Rss(j)+b))); 101 - 102 - %Réinitialisation des coefficients du filtre par BPNLMS++ 103 - %Coefficients impairs par BPNLMS 104 - if mod(j,2)==1 105 - w(j)=w1(j); 106 - %Coefficients pairs par BNLMS 107 - elseif mod(j,2)==0 108 - w(j)=w2(j); 109 - end 110 - end 111 -end 112 -w=((ones(1,64)) * (13.5)-(w))/(13.5); 113 -%Fin du chronométrage 114 -toc; Revenir dans le texte en cliquant 3.4.2. 81 sur 84 Bibliographie [1] ALAEDDINE, H.Application de la transformée en nombres entiers à la conception d’algorithmes de faible complexité pour l’annulation d’échos acoustiques.PhD thesis, Université de Bretagne Occidentale, Juillet 2007. Investigations théoriques. [2] CALAIS, J.Extensions de corps _ Théorie de Galois, ellipses ed. Mathématiques à l’Université, 2006. [3] CARIOLARO, G.Unified Signal Theory. Springer, University of Padova, Italy, 2011. [4]DECOULON, F.Théorie et traitement des signaux, vol. VI. Presses polytechniques et universitaires romandes, CH-1015 Lausanne, 1996. Fondements du traitement des signaux. [5] DESMORAT, R. Cours d’acoustique physique. Ecole Normale Supérieure (ENS Paris- Saclay), Mai 2017. [6] Introduction au filtrage adaptatif. fmy, 2005. [7] GARNIER, H. Rappels sur la théorie de l’échantillonnagede l’analogique au numérique. Université de Lorraine, Polytech NANCY.hugues.garnier@univ-lorraine.fr. [8] HENRI, A. J. . L.Méthodes matricielles _ Introduction à la complexité algébrique. arXiv math, avril 2012, ch. 7. [9] HIRIART-URRUTY, J.-B. Topologie et analyse hilbertienne: Une introduction pragmatique. Notes de cours, Université Paul Sabatier de Toulouse. [10] MALLAT, S. Traitement du signal. Notes de cours, Ecole Normale Supérieure - DÉPARTEMENT DE MATHÉMATIQUES / ENSEIGNEMENT, 45 rue d’Ulm 75230 Paris Cedex 05 - Tél : 01 44 32 31 72 -education@math.ens.fr, 2015. 83 BIBLIOGRAPHIE [11] MAURICECHARBIT, G. B. Traitement du signal audio-numérique. ATIAM: Parcours multi-mentions du master Sciences et Technologies, Septembre 2012. Université Pierre et Marie Curie - Paris 6 en collaboration avec TELECOM ParisTech et l’IRCAM. [12] MULLER, J.-P. Le traitement numérique du signal audio.www.ponge.biz, Juille 2001. [13] PISKOUNOV, N.Calcul différentiel et intégral, editions mir ed., vol. II. Juin 1993. [14] P.JARDIN, J.-F. B. . Introduction au filtrage adaptatif. ESIEE Paris, 2003. [15] PONTON, L. Groupes, anneaux, corps et théorie de galois. Papiers personnels _ lionelponton.fr. [16] SINCÈRE, F. Filtrage numérique d’un signal d’évolution lente avec un microcontrôleur. IUT de Nancy-Brabois.http://perso.orange.fr/fabrice.sincere,Version 1.2.2. [17] SINCÈRE, F. Module d’electronique, troisième partie : Conversion de données. IUT de Nancy-Brabois. http://perso.orange.fr/fabrice.sincere,Version 3.0.1. [18] TERTRE, D.Conception avancée des circuits intégrés analogiques.convertisseurs a/n et n/a. Ecole nationale supérieure des Mines de Saint-Etienne, 2009.www.emse.fr/~dutertre/ enseignement.html. [19] WIKIPÉDIA. Processeur de signal numérique, 2021. 84 sur 84
Après cela, une analyse détaillée des algorithmes élaborés pour l’identification des systèmes est réalisée pour finalement déboucher sur deux choses: l’étude des techniques permettant d’optimiser au maximum les algorithmes et le choix d’un algorithme particulièrement adapté aux systèmes annulateurs d’écho (on a choisi leBPNLMS++). Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). 5 sur 84 Chapitre 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.1 Introduction partielle L’un des moyens permettant de se faciliter la tâche de manipulation du son, consiste à le voir comme une fonction mathématique (bien que non modélisable comme tel de manière rigoureuse). C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. En effet, le traitement numérique d’un signal ne peut être envisagé que s’il est discrétisé or, la manière donts(t)est écrit en 1.1 suggère qu’il peut se voir comme un vecteur dont les composantes sont lesα i , ce qui le rend en fait discret. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Les signaux aléatoires sont donc en bref des signaux dont la valeur instantanée est imprévisible, ce qui implique qu’ils n’ont pas de représentation analytique. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. Soients(nT e )le signal d’excitation que nous noterons justes(n)par commodité(comme pour tous les autres signaux échantillonnés considérés dans ce paragraphe),y(n)signal qu’on voudrait obtenir à la sortie du système (entaché de bruit normalement),e(n)le bruit inconnu,y w (n)le signal modélisé à l’aide des paramètres du filtre,ε(n)l’écart entrey(n)ety w (n). Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Pour les signaux non stationnaires, il est difficile de suivre les variations du signal d’entrée avec l’adaptation du filtre par l’algorithme LMS et cela donne une convergence lente. Pour cela, une transformation tout à fait particulière nous sera utile; il faudra juste qu’elle ait les mêmes propriétés qu’une transformation de Fourier (surtout en ce qui concerne la convolution) et qu’elle rende les calculs 31 sur 84 CHAPITRE 2. Les coefficients du produit deAetB sont alors donnés par: c ij =r M 2 −M+i+jM 2 Une convolution faite après FNT tout en appliquant les méthodes rapides et optimales mentionnées dans les parties précédentes permet de réaliser le produit des matrices avec moins deM 3 opérations complexes (multiplications) comme c’est le cas pour une multiplication par la méthode classique. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences). REMARQUES: Il faudra impérativement noter que les formules ici mentionnées, qui de toute évidence correspondent respectivement au processus de mise à jour des coefficients du filtre dans le cadre duBNLMSet duBPNLMS, ne sont que formelles.En effet, au sens mathématique strict elles ne seront pas valables au vu des dimensions des termes (pour s’en convaincre, il faut noter qu’après formatage des résultats,R ss (k)est de taillep×1,on ne prend que sespderniers termes, donc on ne peut pas l’additionner àβqui est un scalaire mais aussiG k étant une matrice de taillep×p, on aura aussi queG k R ss (k)est de taillep×1et donc même conclusion).Cette notation formelle signifie juste que, pour chaque itération, on calculer le vecteur de taillepdu numérateur et l’autre du dénominateur et le termew k (i)correspondra au résultat obtenu en appliquant la formule mais ayant considéré uniquement les termes numéroide chaque vecteur présent (au numérateur et au dénominateur).Nous y revenons plus clairement lors de l’élaboration de l’algorithme.
UNIVERSITE LIBRE DES PAYS DES GRANDS LACS ULPGL-GOMA B.P368GOMA /WWW.ULPGL.NET FACULTÉ DESSCIENCES ETTECHNOLOGIESAPPLIQUÉES Département de Génie Électrique et Informatique CONCEPTION D’UN FILTRE ANNULATEUR D’ECHO SONORE MIXTE Travail de fin de cycle présenté en vue de l’obtention du diplôme de Graduat en Sciences Appliquées. Présenté par :KRAME KADURHA DAVID Directeur : DI.Dr.Tech. ALAINAKWIR NKIEDIEL Encadreur : Ass2.Ing. DIEUDONNÉMUSONGYA BISIMWA Année académique2019−2020 DÉDICACES A Ma mère Charlotte, mon oncle Aciza et ma petite Joëlle dont respectivement le courage, l’humilité et l’innocence sont toujours une source d’inspiration. i REMERCIEMENTS En premier lieu, nous remercions Dieu pour nous avoir caché les choses tout en nous rendant capables de les trouver par nous mêmes. C’est à la fois un bonheur et un honneur. Nos remerciements particuliers à notre directeur, DI.Dr.Tech. Alain AKWIR NKIEDIEL, et notre encadreur, Ass2.Ing. Dieudonné MUSONGYA BISIMWA, pour le suivi humble, patient et attentif qu’ils nous ont accordé durant l’élaboration de ce document. Nous remercions aussi tous ceux dont l’existence contribue énormément à notre bien-être. Nous pensons particulièrement à notre mère BALIBUNO NZIGIRE Charlotte, Joëlle ANSIMA, Aciza CUBAKA, Daniel KADURHA, Emmanuella MUSIMWA, Florence CINAMA, Generose ABEKA, Alohn SHETEBO, Carine SHETEBO, Sr Catherine, Christian RUBONEKA, Bijoux NAMWESI et Bernardin BWIRABUCIZA. Nos remerciements les plus reconnaissants à Juvénal BALIBUNO, Marcellin BALIBUNO, Bakondjo MUHUBAO, Charles BISIMWA, Akonkwa BALIBUNO, Irène IRAGI, Georgette, Eka BIGABWA, Labii KADURHA, Déo KADURHA, Yvette BUBAKA, Ciza BUBAKA, Ludwine BALIBUNO ,etc. A nos chers grand-parents BALIBUNO Richard et François KADURHA dont respectivement la perspicacité et l’érudition ne cesseront de nous inspirer et de nous guider. Nous remercions enfin nos amis et camarades, pensant nommément à Wen KAMUNTU, Bruno KAMOLE, Patricia OLINABABO, Yvan KAHASHI, Naomi MASASI, Chrispin CIRHULWIRE, Divin KUBIYA, Patient KUBUYA, Pierre MABILI, Styve EBASOMBA, Jacques NDAVARO et tous les gens bienveillants. Recevez nos remerciements les plus sincères. KRAME KADURHADAVID iii RÉSUMÉ Ce travail consiste à concevoir un filtre numérique destiné à un système annulateur d’écho sonore. Pour y parvenir, on commence par passer en revu les notions générales de la théorie de traitement du signal directement utiles à cette fin. Après cela, une analyse détaillée des algorithmes élaborés pour l’identification des systèmes est réalisée pour finalement déboucher sur deux choses: l’étude des techniques permettant d’optimiser au maximum les algorithmes et le choix d’un algorithme particulièrement adapté aux systèmes annulateurs d’écho (on a choisi leBPNLMS++). Ici le système à identifier est le chemin d’écho. L’algorithme choisi et amélioré est écrit et testé sous Matlabpour en vérifier la validité (le test de validation est réalisé dans une situation où l’on sait déjà le résultat prévu par la théorie et on simule l’algorithme pour le valider ou l’invalider). La validation ayant réussi, le filtre est prêt à être implémenté comme tel sur une plateforme d’annulation d’écho. Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). Donc ces coefficients sont figés pendant le filtrage. Ainsi, on peut facilement, grâce à ce filtre, modéliser l’écho d’un signal en entrée, et le soustraire du signal global à transmettre comme réponse à l’émetteur, pour que ce dernier ne puisse pas recevoir une réplique du signal qu’il a émis (l’écho est ainsi supprimé). Le travail est effectivement clos par la validation de l’algorithme qui implémente le filtre adaptatif conçu, ainsi que par un essai d’annulation d’écho. v SIGLES ET ABRÉVIATIONS ADC: Analog to Digital Converter; BLMS: Block Least Mean Square; BNLMS: Block Normalized Least Mean Square; BPNLMS++: Block Proportionnate Normalized Least Mean Square amélioré; CAN: Convertisseur Analogique-Numérique; CNA: Convertisseur Numérique-Analogique; DAC: Digital to Analog Converter; DSP: Digital Signal Processing; FFT: Fast Fourier Transform; FNT: Fermat Number Transform; GF: Galois Field; GPS: Global Positionning System; LMS: Least Mean Square; NLMS: Normalized Least Mean Square; NNT: Natural Number Transform; PNLMS: Porportionnate Normalized Least Mean Square; PNLMS++: PNLMS amélioré; RLS: Recursive Least Square; SNR: Signal-to-Noise Ratio. vii Table des matières DÉDICACESi REMERCIEMENTSiii RÉSUMÉv SIGLES ET ABRÉVIATIONSvii INTRODUCTION GÉNÉRALE1 0.1Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 0.2Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.3Formulation des hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.4Objectifs du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.1Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.2Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.5Choix et intérêt du sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.6Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . . . .4 0.7Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL7 1.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 1.2Bases théoriques du traitement du signal . . . . . . . . . . . . . . . . . . . . . . .8 1.2.1Fondement de l’analyse des signaux[4] . . . . . . . . . . . . . . . . . . .8 1.2.2Signaux déterministes . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 ix TABLE DES MATIÈRES 1.2.3Signaux aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12 1.2.4Cas des signaux discrets . . . . . . . . . . . . . . . . . . . . . . . . . . .14 1.3Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.2Prélude au filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . .20 1.4Traitement du signal audio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 1.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON25 2.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 2.2Quelques algorithmes de filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . .26 2.2.1Algorithme du gradient déterministe . . . . . . . . . . . . . . . . . . . . .26 2.2.2Algorithme du gradient stochastique(LMS)[1] . . . . . . . . . . . . . . . .28 2.2.3Algorithme des Moindres Carrés Récursif [1]&[14] . . . . . . . . . . . . .28 2.2.4Algorithme LMS Normalisé (NLMS) [1]&[6] . . . . . . . . . . . . . . . .29 2.2.5Algorithme Proportionné Normalisé (PNLMS)[1] . . . . . . . . . . . . . .30 2.2.6Algorithme PNLMS++ [1] . . . . . . . . . . . . . . . . . . . . . . . . . .31 2.3Transformée en nombres entiers (NNT) [1] . . . . . . . . . . . . . . . . . . . . .32 2.3.1Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 2.3.2Transformation en nombres de Fermat et arithmétique binaire . . . . . . .33 2.3.3Version rapide de la FNT . . . . . . . . . . . . . . . . . . . . . . . . . . .35 2.3.4La convolution rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 2.3.5Multiplication optimale des matrices [8] . . . . . . . . . . . . . . . . . . .37 2.4Traitement par bloc des algorithmes d’annulation d’écho . . . . . . . . . . . . . .38 2.4.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38 2.4.2Algorithmes proprement-dits [1] . . . . . . . . . . . . . . . . . . . . . . .40 2.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .42 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ43 3.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 x sur 84 TABLE DES MATIÈRES 3.2Structure globale du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 3.2.1Filtre anti-repliement . . . . . . . . . . . . . . . . . . . . . . . . . . . . .44 3.2.2Convertisseurs Analogique-Numérique et Numérique-Analogique . . . . .46 3.2.3Filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.2.4Traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 3.3Élaboration de l’algorithme et présentation du système . . . . . . . . . . . . . . .50 3.3.1Élaboration de l’algorithme d’apprentissage . . . . . . . . . . . . . . . . .51 3.3.2Présentation du système réel . . . . . . . . . . . . . . . . . . . . . . . . .54 3.4Implémentation de l’algorithme et simulations . . . . . . . . . . . . . . . . . . . .55 3.4.1Traitement brut des données . . . . . . . . . . . . . . . . . . . . . . . . .55 3.4.2Traitement par bloc des données . . . . . . . . . . . . . . . . . . . . . . .57 3.4.3Essais comparés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .59 3.5Analyse des résultats et explication de l’implantation sur DSP . . . . . . . . . . .65 3.5.1Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65 3.5.2Explication de l’implantation sur DSP . . . . . . . . . . . . . . . . . . . .66 3.6Annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .66 3.7Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .68 CONCLUSION GÉNÉRALE69 ANNEXES73 .1Algorithme de traitement brut . . . . . . . . . . . . . . . . . . . . . . . . . . . .75 .2Algorithme de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . .78 xi sur 84 Liste des figures 1.1Visualisation d’un signal de parole sur une durée de 1/16 de seconde . . . . . . . .13 3.1Chaîne typique de traitements du signal . . . . . . . . . . . . . . . . . . . . . . .44 3.2Absence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.3Présence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.4Echantillonnage-Quantification-Codage[18] . . . . . . . . . . . . . . . . . . . . .47 3.5Positionnement du filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.6Processus complet de conversion N/A (signaux associés) . . . . . . . . . . . . . .48 3.7Signal d’entrée utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .56 3.8Valeurs des64coefficients du filtre . . . . . . . . . . . . . . . . . . . . . . . . . .57 3.9Les64coefficients du filtre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58 3.10 Les64coefficients du filtre 2 non formatés . . . . . . . . . . . . . . . . . . . . . .59 3.11 Coefficients du filtre 1 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.12 Coefficients du filtre 2 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.13 Coefficients du filtre 1 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.14 Coefficients du filtre 2 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.15 Coefficients du filtre 1 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.16 Coefficients du filtre 2 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.17 Coefficients du filtre 1 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.18 Coefficients du filtre 2 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.19 Coefficients du filtre 1 pour 4370 itérations . . . . . . . . . . . . . . . . . . . . .64 3.20 Coefficients du filtre 2 pour 400 itérations . . . . . . . . . . . . . . . . . . . . . .64 3.21 Démonstration de l’annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . .67 xiii INTRODUCTION GÉNÉRALE 0.1 Contexte La communication est un facteur clé dans l’émergence d’une société. Ce fait se démontre par le développement assez important survenant après que l’homme ait développé les méthodes de traitement, manipulation et interprétation des signaux. Il existe plusieurs types de signaux, mais nous nous focaliserons dans ce travail, sur les signaux sonores. L’onde sonore résulte d’une perturbation du milieu de propagation considéré. En effet, le milieu de propagation 1 est complètement connu si en chacun de ses points et à chaque instant on a la valeur de la vitesse, la pression et celle de la densité. Quantitativement, cela revient à définir les fonctions donnant ces grandeurs. Sous l’effet de la perturbation des dites grandeurs (avec l’approximation acoustique[5], ces perturbations sont très négligeables par rapport à la valeur au repos de la grandeur perturbée), on constate une variation qui respecte l’équation des ondes. Cela traduit le fait que le son est une onde, ce qui veut dire que son comportement est bel et bien analogue à tout type d’onde. De ce fait, il subira tous les traitements réservés aux grandeurs ondulatoires. Il peut donc subir la diffraction, la réfraction, l’interférence,... exactement comme tout type d’onde. On peut aussi en étudier le phénomène de réflexion et cela nous amène immédiatement à l’étude de l’écho lui associé, c’est ce qui va particulièrement nous préoccuper dans ce travail. L’écho acoustique en tant que phénomène physique, n’est en aucune manière problématique ni dérangeant. Il peut néanmoins s’avérer indésirable lors d’une communication par exemple. C’est ainsi qu’il est parfois impératif de trouver une solution à la nuisance apportée par des 1 Nous traiterons dans ce document, uniquement de la propagation du son dans les fluides et particulièrement dans les gaz; que nous supposerons évidemmentparfaits. 1 LISTE DES FIGURES échos acoustiques 2 non désirés. 0.2 Problématique Il arrive que, suite à un mauvais couplage du microphone avec le haut-parleur, nous puissions entendre notre voix résonner via l’ordinateur portable et les hauts-parleurs de la salle de réunion, via les écouteurs lors d’une vidéo-conférence, lors d’un appel téléphonique(surtout en mode mains libres)... Le phénomène peut ne pas durer assez longtemps mais il devient très vite gênant surtout quand il est perceptible. Toutefois, même quand l’écho n’est pas perceptible, il rend moins bonnes l’optimisation de la mémoire ainsi que la compression des données. La qualité du son lors d’une communication est très importante, surtout en application civile, et l’optimisation de l’espace de stockage en cas de besoin ne peut être que bénéfique. Cela fait à ce qu’il soit impérieux de focaliser notre recherche sur les moyens efficaces et rentables au point de vu économique, pour remédier au dit problème. De cette ambition naissent quelques questions auxquelles nous auront répondu à l’issu de ce travail, à savoir: 1. Le filtrage peut-il remédier complètement au problème de la présence indésirée d’écho sonore? 2. Un filtrage analogique peut-il suffire sans problème? 3. Sans mémorisation dynamique du signal, est-il possible de mieux annuler l’écho? 0.3 Formulation des hypothèses Nous estimons qu’un filtre résoudrait bel et bien le problème de la présence indésirée de l’écho acoustique dans les signaux sonores. Nous croyons également qu’un filtre purement analogique serait moins rentable pour réaliser de façon satisfaisante l’annulation de l’écho d’un signal sonore. 2 L’utilisation abusive du termeécho acoustiqueen lieu et place d’écho sonoren’est pas à considérer avec toute la rigueur 2 sur 84 0.4. OBJECTIFS DU TRAVAIL C’est pour cette raison que nous anticipons qu’un filtre mixte, allié à une mémorisation dynamique et optimisée du signal réaliserait amplement l’extraction du signal de base sans écho. 0.4 Objectifs du travail 0.4.1 Objectif général Notre travail consiste à concevoir un filtre annulateur d’écho acoustique. 0.4.2 Objectifs spécifiques Pour arriver à mettre conceptuellement sur pieds un filtre annulateur d’écho adapté, nous comptons: 1. Etudier la génération d’écho acoustique et circonscrire le problème; 2. Choisir l’approche adaptée pour modéliser la réponse d’une enceinte à l’onde sonore; 3. Évaluer la possibilité d’un traitement par filtrage adaptatif; 4. Etudier et adapter le filtrage numérique de l’écho; 5. Concevoir, étudier et tester les algorithmes d’annulation d’écho; 6. Proposer les éléments et paradigmes adaptés pour une perspective d’implantation du filtre. 0.5 Choix et intérêt du sujet Le filtrage des signaux est assez puissant pour résoudre tout problème consistant à séparer le signal utile d’avec le bruit. Nous avons donc songé à appliquer ce type de traitement au son juste en ce qui concerne l’annulation de l’écho, sans nous préoccuper des autres signaux indésirables qui brouilleraient le signal utile. La conception d’algorithmes de filtrage du son serait rendue plus efficace sur un grand nombre des points si le problème de l’écho se trouvait préalablement résolu. Ainsi, ce sont d’autres parasites qui seraient pris en compte et l’écho deviendrait secondaire. 3 sur 84 LISTE DES FIGURES Sur le plan social, il est évidemment important d’augmenter le confort lors d’une communication par exemple en annulant l’écho quand cela s’avère nécessaire mais également, d’optimiser l’utilisation d’un espace mémoire en cas de stockage des données. 0.6 Méthodologie de recherche et délimitation du travail Nous procéderons par analyse et expérimentation (notamment grâce au logicielMatlab) avec comme techniques, l’analyse du contenu et la documentation. Notre travail se focalise uniquement sur l’onde sonore, principalement sur le filtrage ainsi que l’annulation de l’écho généré 3 . Nous réaliserons donc le filtrage dudit signal dans un contexte plus général (indépendamment de l’enceinte, considérant juste la modélisation de la réponse de l’enceinte, ou du lieu en général, à l’onde sonore). Cela nous conduira à élaborer un filtre adapté avec optimisation des apports respectifs des parties numériques et analogiques. Il faut également noter que le milieu de propagation considéré dans le présent travail est le gaz parfait. Aussi, nonobstant le fait que certains résultats trouvés soient applicables pour tout type de fluide, nous ne les appliquons qu’au cas des gaz parfaits. 0.7 Subdivision du travail Excepté l’introduction et la conclusion générales, nous avons dans ce travail: • AuChapitre 1,Les généralités sur le traitement du signal, nous nous focalisons sur les aspects du traitement des signaux qui seront utiles à notre projet (particulièrement le traitement du signal audio). • AuChapitre 2,Etude théorique du filtrage du son, nous traitons particulièrement du filtrage de l’onde sonore en vu d’annuler un écho éventuel. Nous y parlons également des différentes 3 On ne traitera par exemple pas de l’écho électrique dû aux caractéristiques des éléments intervenant dans le traitement et la transmission du signal. 4 sur 84 0.7. SUBDIVISION DU TRAVAIL méthodes d’annulation d’écho et particulièrement des algorithmes existant. • AuChapitre 3,Conception d’un filtre mixte adapté, nous concevons, étape par étape, le filtre recherché en nous basant sur les algorithmes du chapitre précédent, tout en les complétant et en les améliorant en cas de besoin. Nous y donnons également des lumières utiles pour l’embarcation du système. 5 sur 84 Chapitre 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.1 Introduction partielle L’un des moyens permettant de se faciliter la tâche de manipulation du son, consiste à le voir comme une fonction mathématique (bien que non modélisable comme tel de manière rigoureuse). Ainsi on voit le son comme la variation d’une quantité (l’énergie de pression transmise par exemple) en fonction du temps. Cela nous permet de le traiter comme un signal parmi tant d’autres et ainsi avoir le droit d’y appliquer des résultats élaborés pour cet effet dans le cadre d’une discipline nommée traitement du signal. Le traitement du signal est en effet une discipline qui est axée sur le traitement, l’interprétation et l’analyse des signaux. Un signal peut être contrôlé, filtré, comprimé, transmis, débruité, déconvolué, identifié, classifié... C’est donc une discipline dont l’objet central d’étude est le signal (concept qui regroupe nombreux phénomènes bien particuliers comme le son, l’image,...). Dans ce premier chapitre, nous abordons particulièrement les notions de base du traitement des signaux tout en orientant notre exposé dans le sens du traitement du signal qui nous concerne. Tout converge vers un traitement particulièrement utile pour notre étude, le filtrage. Nous nous focalisons sur le traitement numérique du signal vu que c’est ce qui facilite la manipulation et l’élaboration des systèmes de traitement des signaux. C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL cas de la majorité des signaux sonores. 1.2 Bases théoriques du traitement du signal 1.2.1 Fondement de l’analyse des signaux[4] Un signals(t)peut être vu approximativement comme une combinaison linéaire des fonctions simples et connues formant la base d’un espace vectoriel à dimensionnqui est infini à la limite. Cela étant, on associera à chaque fonctionf i (t)constituant la base dudit espace vectoriel un coefficientα i . Ce qui donne: s(t) = n ∑ i=1 α i f i (t)(1.1) Cette représentation des signaux est très capitale car elle facilite l’analyse du signal ainsi représenté et permet d’aborder le traitement numérique du signal. En effet, le traitement numérique d’un signal ne peut être envisagé que s’il est discrétisé or, la manière donts(t)est écrit en 1.1 suggère qu’il peut se voir comme un vecteur dont les composantes sont lesα i , ce qui le rend en fait discret. Nous venons de former un espace vectoriel des fonctions, isomorphe àR n ou àC n selon que le signal est modélisé sous la forme réelle ou complexe. On remarque ques(t)peut être représenté par un vecteur dont les composantes changent en fonction de la famille desf i (t)choisie. Le choix de cette famille est également primordial car c’est de lui que dépend la facilité d’analyse du signal considéré. La représentation des signaux par des vecteurs est très féconde etpermet par exemple d’évaluer le degré de ressemblance des signauxgrâce à la notion de distance. Pour cela, on définit une norme ‖.‖sur l’espace des fonctions introduit tel que pour tout signals(t)on ait que: ‖s(t)‖ 2 = √ √ √ √ n ∑ i=1 (α i ) 2 (1.2) 8 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Par analogie on a que la norme de s(t) est sur une périodeτ: ‖s(t)‖ 2 = √ ∫ τ |s(t)| 2 dt(1.3) L’expression 1.3 signifie que les signaux doivent être à carré intégrable. Le sens physique est que les signaux doivent avoir une énergie finie. Ce qui précède est évident pour un signal réel et constitue une condition supplémentaire à imposer à l’espace des signaux. Soients(t) = (α 1 ,...,α n )etu(t) = (β,...,β n )deux signaux, la distance entre les deux signaux sera donnée par la distance usuelle découlant de la norme définie en 1.2. Soit que: d(s,u) =‖s−u‖ 2 (1.4) = √ √ √ √ n ∑ i=1 (α i −β i ) 2 (1.5) Notez que par analogie on peut également définir, en vertu de 1.3, la distance entre les signaux par: d(s(t),u(t)) = √ ∫ τ |s(t)−u(t)| 2 dt(1.6) La norme, telle que définie en 1.2, dérive 1 évidemment d’un produit scalaire[9]; ce produit est donné par: 〈s,u〉= n ∑ i=1 (α i .β ? i )(1.7) Avecβ ? i le complexe conjugué deβ i pour être plus général. Comme habituellement nous pouvons aussi définir ce produit pour les signaux non discrétisés sur une période de tempsτpar: 〈s(t),u(t)〉= ∫ τ (s(t).u ? (t))dt(1.8) Le produit scalaire de deux vecteurs est proportionnel à la projection de l’un sur l’autre. Il est 1 Car on a que‖s‖= √ 〈s,s〉 9 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL maximum, en valeur absolue, lorsque les deux vecteurs ont la même orientation et nul lorsqu’ils sont orthogonaux. Il peut donc être considéré comme une mesure de la similitude d’orientation des vecteurs. En d’autres termes, le rapprochement des signaux dans leur évolution (similitude des formes). L’espace vectoriel des fonctions ainsi défini et muni de ce produit scalaire qui y induit une norme estcomplet[9] et constitueun espace de Hilbert. La connaissance de cette structure est cruciale car elle permet de traiter tous les éléments de cet espace des signaux en utilisant juste les résultats connus sur les espaces de Hilbert. Ce qui vient d’être démontré justifie que les signaux soient développables en série des fonctions orthogonales et non liées. D’où la possibilité de les développer ensérie de Fourierou bien en considérant les autres familles des fonctions orthogonales selon les besoins et la commodité. Le développement en série de Fourier est en fait d’une importance capitale en théorie du signal. 1.2.2 Signaux déterministes Les signaux déterministes sont ceux représentables par une fonction analytique. Suite à ce qui vient d’être montré à la sous-section précédente, nous allons reconsidérer la transformée de Fourier dans cette partie et en aborder les aspects utiles à notre travail. La transformation de Fourier est vue comme une généralisation du développement en série des fonctions orthogonales de Fourier tel que présenté dans la partie qui précède. Le développement en série Fourier est donnée par [13]: s(t) = +∞ ∑ n=−∞ [S n .e j2πnft ](1.9) Cette équation constitue donc, à quelques changements de variable près, un cas particulier de 1.1. Avec les coefficientsS n donnés par: S n = 1 T . ∫ T 2 −T 2 s(t).e −j2πnft dt(1.10) 10 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Définition [4] Soits(t)un signal déterministe, sa transformée de FourierSest définie par: S(f) = ∫ +∞ −∞ s(t).e −j2πft dt(1.11) Avectla variabletempsetflafréquence. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. Ici nous comptons montrer qu’à une fonction quelconque correspondra unetransformée de Fourier 2 . Pour cela, considérons un signal quelconques(t)et ciblons-y une région simple dont on connait l’expression analytique. Supposons ensuite un signals 1 (t)qui serait une réplique à l’infini de la partie ciblée.s 1 (t)est par cela périodique de périodet f −t i avect f l’instant final de la partie ciblée ett i son instant initial. Suite à cette définition des 1 (t), il est évident qu’en prenantT(c’est-à-diret f −t i )infinie, cela revient à prendres(t). D’où: s(t) = lim T→+∞ s 1 (t)(1.13) Nous savons pourtant que le développement des 1 (t)en série de Fourier existe car elle est périodique. Il sera donné mutatus mutandi par les rélations 1.9 en prenant en compte 1.10. Par conséquent,la représentation fréquentielle des 1 (t)est un spectre des raies et la distance entre raies adjacentes vaut f 1 = 1 T étant donné que le développement en série de Fourier suggère que toutes les fréquences, 2 Évidemment, si ladite fonction est à carré sommable, c’est-à-dire si son carré a une intégrale finie. 11 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL dans le développement des 1 (t), sont multiples def 1 . La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. Cela prouve qu’il existe, sous certaines hypothèses(voir la note de bas de page précédente), une fonction fréquentielleS(f)exprimant le signals(t)dans le domaine des fréquences. C’est évidemment clair étant données les relations 1.11 et 1.12. Nous en déduisons que la transformée de Fourier représente, à la limite, la densité spectrale de raies telle que définie en 1.14. D’où l’intérêt de cette transformée, généralisant le développement en série de Fourier, grâce à l’extension aux fonctions non périodiques. 1.2.3 Signaux aléatoires Les signaux déterministes, sont, comme nous venons de le voir, des fonctions telles que, à chaque instant, on dispose d’une règle permettant d’en évaluer la valeur. Cette règle peut être spécifiée sous forme d’une expression mathématique,ou d’une équation récurrente ou tout autre procédé de construction. Les fonctions déterministes forment la base de l’analyse mathématique, mais la plupart de phénomènes que nous aurons à modéliser ne sont pas de cette nature. 12 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Figure 1.1: Visualisation d’un signal de parole sur une durée de 1/16 de seconde Considérons le signal de parole représenté à la figure 1.1. Il est clair, à la vue de ce graphe, que l’on ne peut réduire ces observations à une fonction déterministe du temps. Nous pourrions peut-être trouver une fonction déterministe qui approxime correctement les valeurs observées sur un intervalle de temps[0,T], mais cette fonction ne serait pas une approximation valable de l’observation à l’extérieur de cet intervalle, et cette propriété perdurerait indépendamment de la durée[0,T]de l’observation. Le graphe 1.1 contient un très grand nombre d’irrégularités et ces irrégularités ne semblent pas respecter une évolution prédictible. Les observations ont un caractère aléatoire, dans le sens où nous ne savons pas déterminer, pour un instant donné, quelle sera la valeur précise de la mesure. Par contre, il est envisageable d’indiquer un intervalle de valeurs possibles et éventuellement de préciser comment ces valeurs sont distribuées à partir d’une certaine loi de probabilité. La bonne façon de décrire le comportement du phénomène est donc de spécifier, à chaque instant, une distribution de probabilité, permettant de décrire la vraisemblance de chaque observation. Dans le langage des probabilités, la valeur observée sur le capteur à chaque instant est une variable aléatoire et son évolution au cours du temps, un processus aléatoire. Cet exemple est le prototype d’une large classe de phénomènes qui conduit à adopter, pour les modéliser, la prise en compte de l’indéterminisme.[11] 13 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Les signaux aléatoires sont donc en bref des signaux dont la valeur instantanée est imprévisible, ce qui implique qu’ils n’ont pas de représentation analytique. Ces signaux seront étudiés grâce à certains paramètres statistiques qui leur sont associés. C’est en fait ces types de signaux qui sont rencontrés dans notre contexte et nous en reparlerons de manière plus approfondie, mais implicite, dans les parties qui vont suivre. 1.2.4 Cas des signaux discrets Nous aborderons ici les signaux discrets de manière secondaire. C’est-à-dire, en les prenant comme le résultat de l’échantillonnaged’un signal continu, vu que c’est cet aspect qui nous intéressera dans le présent travail. Echantillonnage Echantillonner 3 un signal consiste à prélever, à intervalle de temps régulier le plus souvent, les valeurs prises par le signal. Cela permet ainsi de voir le signal comme une suite de nombres et en permet le traitement par un ordinateur ou tout autre système de traitement des données. C’est en fait le processus deconversion analogique-numérique. De manière formelle donc, si on prélève les valeurs du signal avec une périodeT e , on aura une suite des nombres valant{s(nT e )} n∈Z 4 qui constitue les échantillons du signal. Par ce fait même, on est amené à songer au problème de reconstitution du signal à partir de ses échantillons. Avant de considérer ce problème, définissons l’impulsion de Dirac qui nous sera très utile pour la suite du travail même si elle n’est pas physiquement réalisable de manière parfaite car elle est idéale. Impulsion de Dirac[10] :Un Diracδ(t)est par définitionune distributiondont le support (domaine non nul) est réduit au pointt= 0et d’intégrale valant 1. Formellement, il est défini par: ∫ +∞ −∞ δ(t)dt= 1(1.15) 3 C’est l’une de manières les plus simples de discrétiser un signal 4 De manière tout à fait générale, sans prendre en compte dans un premier temps la causalité (c’est-à-dire le fait selon lequel le temps doit uniquement être pris positif) 14 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Ce qui veut dire que cela correspond à un signal de durée nulle et de surface1. C’est en fait une limite définie pratiquement par [3]: δ(t) = lim T→0      1 T pour| t T |< 1 2 0pour| t T |> 1 2 (1.16) De cela on peut montrer que: ∫ +∞ −∞ s(t).δ(t)dt=s(0)(1.17) Commeδ(t−τ)représente une impulsion de Dirac localisée plutôt enτ, on aura que: ∫ +∞ −∞ s(t).δ(t−τ)dt=s(τ)(1.18) On remarque que cette manipulation permet de prélever des valeurs des(t)en des instantsτbien précis. Plus généralement, introduisons un opérateur complet d’échantillonnage nommépeigne de Dirac(plusieurs Dirac étendus sur toute la droite des réels et espacés chaque fois deτsecondes). Il sera donné par: c(t) = +∞ ∑ n=−∞ δ(t−nτ)(1.19) c(t)permet de réaliser complètement l’échantillonnage d’un signals(t)car avec lui on prélève à intervalle de temps régulierτ(période d’échantillonnage), la valeur correspondante du signal. En effet, le signal échantillonné est alors donné parla distribution: s e (t) = ∑ +∞ n=−∞ s(nT e )δ(t−nT e ) = ∑ +∞ n=−∞ s(t)δ(t−nT e ) =s(t) ∑ +∞ n=−∞ δ(t−nT e ) En bref, au vu du développement qui vient d’être fait, on a: s e (t) =s(nT e ) =s(nT e ).c(t) =s(t).c(t)(1.20) Echantillonner un signal revient donc juste à le multiplier par le peigne de Dirac. 15 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Condition d’échantillonnage correct:La reconstitution du signal à partir de ses échantillons n’est réalisable que sous certains critères dont lethéorème d’échantillonnageditthéorème de Nyquist-Shannon. Ce théorème donne une condition sur le support du spectre (donné par la transformée de Fourier) du signals(t)pour reconstituers(t)à partir de ses échantillonss(nT e ). Ce théorème est ainsi énoncé: Théorème 1 (Nyquist-Shannon)Soits(t)un signal dont la transformée de FourierS(ω) 5 est à support dans[− π T e , π T e ]. Alorss(t)peut être reconstruit en interpolant sur ses échantillons s(t) = +∞ ∑ n=−∞ s(nT e ).h T e (t−nT e )(1.21) Avec h T =sinc( πt T ) = sin πt T πt T (1.22) Le théorème nous donne une condition surωpour que la reconstitution du signal à partir de ses échantillons soit possible. Cette condition est en effet|ω| ≤ π T e ce qui veut dire que la fréquence devra vérifierf max ≤ f e 2 ⇒f e ≥2.f max . En bref, le théorème 1 nous dit quela reconstitution du signal à partir de ses échantillons n’est possible que si la fréquence d’échantillonnagef e est supérieure ou égale au double de la fréquence maximale du spectre associé au signal. Transformée de Fourier Pour un signal discrets(nT e ), la transformée de Fourier est définie par[10]: S d (f) = +∞ ∑ n=−∞ s(nT e ).e −i.2πf.n (1.23) C’est au fait la transformée de Fourier de sa représentation sous forme de distribution telle que donnée par 1.20. On sait pourtant qu’à un point de vu réel on n’a qu’un nombre finiNd’échantillons. Pour prendre cela en compte, on définit la transformée de Fourier pour le cas dessignaux finis. Elle 5 ωreprésentant la pulsation du signal, avecω= 2.π.f 16 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cet algorithme est largement utilisé par les processeurs spécialisés dans le traitement du signal. Transformée de Fourier Rapide:On parle souvent d’algorithme FFT. 6 C’est une méthode pour calculer la transformée de Fourier discrète d’un signal permettant de réduire le temps de calcul. Pour cela, on calcule la transformée sur une moitié de l’échantillon puis sur l’autre, réduisant ainsi la complexité de l’algorithme de recherche de la transformée. Plus précisément, cet algorithme réduit le nombre d’opérations nécessaires au calcul de latransformée de Fourier DiscrètedeN 2 avec la méthode ordinaire àNlog 2 Nopérations en utilisant la FFT.[3] Comme montré précédemment, c’est utilisé pour le cas de signaux discrets périodiques (signaux discrets finis périodisés comme va le montrer clairement l’explication de l’expression 1.30). Ici nous n’en donnons qu’une vue sommaire étant donné que dans la suite du travail nous en reparlerons de manière plus claire quoi qu’implicite (voir le point 2.3.3). 6 Fast Fourier Transform (FFT) 17 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.3 Filtrage 1.3.1 Introduction Introduisons juste une opération qui nous sera très utile dans la suite. Filtrer un signal c’est lui faire subir une transformation bien particulière impliquant l’extraction d’une partie qu’on juge utile. En effet, la fonction d’un filtre est de modifier le contenu fréquentiel du signal d’entrée en transmettant intégralement le spectre du signal d’entrée sur certaines gammes de fréquences, et en bloquant le signal d’entrée pour les autres fréquences. Approximons un filtre par un système linéaire, homogène, invariant et stable[10]. Au point de vu formel ,le passage d’un signal à travers un filtre implique à ce qu’on lui fasse subir l’action d’un opérateur linéaire, homogène, invariant et stable. De ce fait, considérons un filtre représenté par un opérateur linéaireL. Au vu de ce que nous suggère la définition de l’impulsion de Dirac, se référant plus précisément à l’expression 1.18, nous voyons que: s(t) = ∫ +∞ −∞ s(u).δ(u−t)du(1.26) En lui appliquant l’opérateurlinéaireL, ce qui équivaut à le faire passer à travers un filtre,sans ignorer queδ(t) =δ(−t), on trouve: L(s(t)) =L{ ∫ +∞ −∞ s(u).δ(t−u)du}= ∫ +∞ −∞ s(u).L{δ(t−u)}du(1.27) Etant donné queLest aussi homogène en temps, on a que, siL{δ(t)}=h(t)alorsL{δ(t−u)}= h(t−u). Nous voyons évidemment queh(t)représentela réponse du système considéré à une impulsion de Dirac 7 . C’est ainsi que 1.27 donne: L(s(t)) = ∫ +∞ −∞ s(u).h(t−u)du(1.28) 7 C’est-à-dire le signal observé à la sortie du système en ayant appliqué une impulsion de Dirac en entrée. 18 sur 84 1.3. FILTRAGE C’est la définition duproduit de convolutiondu signal par la réponse impulsionnelle du filtre. En bref, faire passer un signal à travers un filtre linéaire et homogène consiste à faire le produit de convolution du signal par la réponse du filtre à une impulsion. Soit dit en passant, le produit de convolution des(t)parh(t)est donné par: s(t)? h(t) = ∫ +∞ −∞ s(u).h(t−u)du= ∫ +∞ −∞ s(t−u).h(u)du(1.29) La convolution discrète est définie de façon analogue (c’est-à-dire en remplaçant les signaux continus par les correspondants échantillonnés et les intégrales par des sommations discrètes). Toutefois, pour le cas des signaux finis, on définit plutôtla convolution circulairecar l’application de la relation précédente comme telle impliquerait la prise en compte des échantillons précédant le début de l’échantillonnage (valeur négative du temps). Pour cela, on considère que l’échantillon observé se répète à l’infini (périodisation des données récoltées). Donc, siNest le nombre d’échantillons, on devra faire tous les calculs surZ N . D’où la définition[10] de la convolution circulaire 8 : En posant ̇n=n modulo Ncar nous travaillons dansZ N , s(nT e )~h(nT e ) = N−1 ∑ p=0 s( ̇pT e ).h[ ̇ ̂ (n−p).T e ](1.30) La définition du produit de convolution ainsi donnée nous permet de donner un complement fondamental au paragraphe 1.2.2. Nous constatons en fait que les exponentiellese i2πft sont des vecteurs propresdes opérateurs de convolution qui sont sans doute des opérateurs linéaire (Lselon notre notation). En effet, appelonsL(•)l’opérateur de convolution défini parL(•) =h(t)?•. Nous aurons, à la lumière de la définition donnée par l’expression 1.29 alliée à la définition de la transformée de Fourier donnée en 1.11: L(e i2πft ) = ∫ +∞ −∞ h(u).e i2πf(t−u) du= (e i2πft ).H(f)(1.31) AvecH(f)la transformée de Fourier de la réponse impulsionnelleh(t)du filtreL. On le nomme fonction de transfert du filtre L. En toute évidence, les exponentiellese i2πft sont les vecteurs 8 La seule qui soit utilisable en pratique car définie pour les signaux finis. 19 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL propres de l’opérateur linéaireLet les fonctions de transfert associées sont lesvaleurs propres correspondantes. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. D’où l’intérêt de la série de Fourier et par ricochet, la transformée de Fourier. 1.3.2 Prélude au filtrage adaptatif Nous ne traiterons pas du filtrage classique ni dans un cadre discret ni dans un cadre continu vu que ce ne sera vraiment pas utile. Nous parlerons néanmoins dufiltrage adaptatifdont les concepts nous seront d’une grande utilité dans le cadre du présent travail. Pour cela, introduisons d’abord un filtrage particulier qui permettra d’aborder le filtrage adaptatif. Filtrage de Wiener[6] Ce type de filtrage est conçu pour séparer le signal d’avec le bruit comme tout autre type de filtrage. C’est-à-dire, séparer deux signaux à caractéristiques statistiques différentes. Soients(nT e )le signal d’excitation que nous noterons justes(n)par commodité(comme pour tous les autres signaux échantillonnés considérés dans ce paragraphe),y(n)signal qu’on voudrait obtenir à la sortie du système (entaché de bruit normalement),e(n)le bruit inconnu,y w (n)le signal modélisé à l’aide des paramètres du filtre,ε(n)l’écart entrey(n)ety w (n). Considérant que le signal passe par un système linéaire et homogène, nous aurons à la sortie un signal obtenu par convolution discrète du signal d’entrée avec la réponse impulsionnelle du filtre constituant le système considéré. Il existe donc les coefficientsw k tel que: y w (n) = p−1 ∑ k=0 w k .s(n−k)(1.32) Ce filtre est à réponse impulsionnelle finie de longueurp. Notez que, bien que non mentionné, cette convolution est faite avec les mêmes considérations que celles mentionnées pour laconvolution circulairedonnée en 1.30 sauf qu’ici, nous faisons abstraction desmodulospour ne pas alourdir l’écriture. Le problème ici consiste à minimiser 20 sur 84 1.3. FILTRAGE l’erreur d’estimation approximativeε(n) 9 . Nous allons utiliser les notations matricielles pour être général(en ce qui concerne le nombre de coefficients du filtre en particulier). La relation 1.32 devient: y w (n) = p−1 ∑ k=0 w k .s(n−k) =W T .S(n) =S(n) T .W(1.33) AvecW= ( w 0 w 1 ···w p−1 ) T ; S(n) = ( s(n)s(n−1)···s(n−p+ 1) ) T et l’exposantTsur les vecteurs indique qu’on a fait la transposition. De là on tire: ε 2 (n) = [y(n)−S(n) T .W] 2 =y(n) 2 −2y(n)S(n) T W+W T S(n)S(n) T W(1.34) AppelonsΓ(W)la valeur moyenne des erreurs commises (avecμl’opérateur indiquant qu’on fait une moyenne). C’est elle qu’il nous faudra chercher à minimiser pour espérer trouver un filtre optimal. Au vu du développement précédent nous aurons: Γ(W) =μ{y(n) 2 }−μ{2y(n)S(n) T W}+μ{W T S(n)S(n) T W}(1.35) DérivonsΓ(W)par rapport àW(ce qui correspond plus précisément à la recherche du gradient), ça donne: d[Γ(W)] dW =−2μ{y(n)S(n) T }+ 2μ{S(n)S(n) T }.W(1.36) Notons queμ{y(n)S(n) T }=          1 N ∑ N−1 n=0 y(n).s(n) 1 N ∑ N−1 n=0 y(n).s(n−1) . . . 1 N ∑ N−1 n=0 y(n).s(n−p+ 1)          avecNle nombre d’échantillons (Idem pour les autres moyennes, sachant que la moyenne d’une 9 On ditapproximativecar la sortie voulue n’est connue qu’à travers un transducteur (qui introduit également un bruit de fond). On minimise plutôt le carré de cette erreur pour des raisons tout à fait pratiques et calculatoires[14]. 21 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL matrice consiste à faire l’opération pour tous ses termes). Rappelons que: •μ{y(n)S(n) T }est un vecteur de dimensionp(vu quey(n)est un simple scalaire à chaque fois),on le nommevecteur d’intercorrélationet nous le noteronsR sy . •μ{S(n)S(n) T }est une matricep×pnomméematrice d’autocorrélationet nous la noterons R ss . Par conséquent, comme le minimum se retrouve en annulant le gradient, de l’expression 1.36 on tire l’équation donnant les coefficientsw k lorsque la dérivée est nulle, donc le filtre optimalW opt . On a: R ss .W=R sy ⇒W opt =R −1 ss .R sy (1.37) C’est l’équation normaledite deWiener-Hopf. On remarque évidemment qu’implémenter ce système aura un certain nombre de lacunes dont par exemple le temps de calcul des matrices ainsi que l’espace mémoire nécessaire surtout pour l’inversion de la matriceR ss . Le problème le plus pertinent est quesi les signaux ne sont pas stationnaires, ce qui est pourtant plus fréquemment le cas pour les signaux réels,R ss etR sy évoluent au cours du temps. Cela veut dire qu’il faudra chaque fois résoudre à nouveau l’équation de Wiener-Hopf. Ce qui vient d’être montré justifie qu’il est impérieux de trouver un moyen efficace pour pouvoir résoudre récursivement et plus rapidement l’équation de Wiener-Hopf. Le filtrage adaptatif apporte une solution efficace à ce problème. 1.4 Traitement du signal audio Le traitement du signal audio est un domaine très vaste qu’on ne peut espérer aborder de manière exhaustive dans ce document. Premièrement, cela serait une perte d’énergie et deuxièmement c’est une entreprise utopique. Le son peut en fait subir divers traitements dont le filtrage. Nous nous intéressons juste au filtrage ayant pour finalité l’annulation d’un écho présent dans le fichier 22 sur 84 1.5. CONCLUSION PARTIELLE sonore. L’annulation d’écho est ardue si on l’étudie de manière détaillée, c’est-à-dire en voulant considérer tous les paramètres qui entrent en jeu. En effet, pour annuler l’écho, il faut connaître précisément le milieu de propagation du son qu’on veut débarrasser de la perturbation en question. Le problème est qu’en premier, une telle étude serait irréalisable car cela prendrait en compte un très grand nombre de paramètres. En second lieu, les paramètres varieraient continuellement dans le temps (considérer pour cela le fait que, dans une enceinte, le changement de positon de l’un des éléments a une influence significative sur le comportement de ladite enceinte par rapport au signal à considérer; par exemple, le déplacement du microphone modifie directement la réponse de l’enceinte au signal et change par là même les calculs à faire pour annuler au mieux l’écho,...) et cela rendrait juste l’entreprise irréaliste. Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Cela rendrait l’étude systématique réalisable en pratique. Au vu de ce dont nous avons parlé dans les sections précédentes, la solution est d’étudier la fonction de transfert associée à l’enceinte considérée et de recourir au filtrage adaptatif pour une prise en compte efficace de l’évolution temporelle du système. La stratégie d’annulation d’écho acoustique repose sur une estimation du canal acoustique de l’écho en identifiant la réponse impulsionnelle du bouclage acoustique qui est retranchée finalement du signal. Le filtrage étant adaptatif, les coefficient du filtre sont adaptés en fonction de l’erreur commise à chaque itération. La réponse impulsionnelle du filtre varie au cours du temps et dépend du signal en entrée, de la séquence d’apprentissage et de l’algorithme d’optimisation choisi[1]. 1.5 Conclusion partielle Dans ce premier chapitre, nous avons premièrement justifié le bien fondé de l’application de l’analyse de Fourier au traitement du signal tout en pointant les résultats intéressants de cette dernière discipline. Deuxièmement, nous avons montré de manière implicite à quel point le traitement numérique du 23 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL signal est fécond et intéressant. En effet, il facilite les manipulations à effectuer sur les signaux, en facilite l’étude théorique et surtout, est plus adaptable aux divers systèmes de traitement des données existant, tout en étant moins sensible aux caprices de la nature (insensibilité du signal, dès qu’il est numérisé, aux perturbations de l’appareillage). Nous y avons également traité du filtrage adaptatif. Pour cela, le concept a été illustré par le filtre de Wiener (filtre en général non utilisable pour le son car restreint aux signaux stationnaires), très crucial pour le développement du filtrage adaptatif proprement-dit qui est abordé dans le chapitre qui suit. 24 sur 84 Chapitre 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.1 Introduction partielle Le traitement du signal sonore doit être minutieusement réalisé car les effets d’un mauvais traitement sont facilement perceptibles. Un traitement particulier, le filtrage, avec comme objectif d’annuler l’écho éventuel du signal sonore, fait l’objet de ce chapitre. Nous avons principalement opté pour un traitement numérique du signal à cause des avantages que cela procure (allant de la facilité de traitement à la facilité de réplique des manipulations effectuées en passant par la grande disponibilité des concepts élaborés du domaine). C’est ainsi que nous présentons, en premier lieu, divers algorithmes de filtrage conçus principalement avec comme objectif d’aboutir à une possibilité d’annuler l’écho d’un signal sonore. En second lieu, nous abordons un type de transformation numérique particulier, la transformée en nombres de Fermat, qui constitue un substitut valable à la transformation de Fourier discrète dans des situations où il est impérieux de réduire la complexité de calcul des algorithmes élaborés. En troisième et dernier lieu, nous y présentons un paradigme très essentiel pour une réduction encore plus grande de la complexité des algorithmes élaborés pour le traitement des signaux. Il s’agit du traitement par bloc des séquences numériques. 25 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2 Quelques algorithmes de filtrage adaptatif Le filtrage adaptatif a été introduit à la fin du premier chapitre. En gros, ça consiste à réaliser le filtrage avec un filtre numérique qui change et s’adapte à l’enceinte selon un critère bien défini (un critère de minimisation du carré de l’erreur d’estimation par exemple). Pour cela nous avons parlé du filtre de Wiener qui, bien que n’étant utilisable qu’en cas des signaux stationnaires, nous permet d’aborder de manière claire et succincte le filtrage adaptatif. Ces algorithmes ont donc pour raison d’être l’approximation du filtre optimal de Wiener en cas des signaux non stationnaires. Il s’agit dufiltrage adaptatif proprement-dit. 2.2.1 Algorithme du gradient déterministe L’équation de Wiener-Hopf vue à la fin du précédent chapitre permet de retrouver le filtre optimal en résolvant un système depéquations àpinconnues. Cet algorithme permet de résoudre le système de manière itérative. Cela est fait en deux étapes: • Choix du vecteurW 0 (Winitial). • Obtention, à partir deW k , deW k+1 par incrémentation deW k dans la direction opposée au gradient de la fonction moyenne des erreursΓ(W)introduite en 1.35. Ainsi on aura[14]: W k+1 =W k − 1 2 λ∇[Γ(W)](2.1) Et pourtant on sait que, selon les notations adoptées, et suite à l’égalité 1.36 on a: −−→ gradΓ(W)≡∇[Γ(W)] = d[Γ(W)] dW =−2R sy + 2R ss W k (2.2) Par conséquent, l’algorithme du gradient déterministeest donné par[1]: W k+1 =W k +λ(R sy −R ss .W k )(2.3) 26 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF La stabilité de cet algorithme est contrôlée par lepas d’adaptationλ, elle dépend également de la matrice d’autocorrélation du vecteur d’entrée[1]. En effet, si on nommeE k l’écart entreW k etW opt aprèskitérations, on aura: E k =W k −W opt (2.4) or selon l’équation de Wiener-Hopf, R ss W opt =R sy (2.5) Et selon l’algorithme du gradient déterministe on aura: W k+1 =W k +λ.(R ss .W opt −R ss .W k )(2.6) =W k +λR ss .(W opt −W k )(2.7) =W k −λR ss .E k (2.8) De ce qui précède on tire que E k+1 =W k+1 −W opt =E k −λR ss .E k (2.9) Ce qui montre de manière évidente de quelle façon la convergence de l’algorithme dépend du pas d’adaptation et de la matrice d’autocorrélation du vecteur d’entrée. La convergence de l’algorithmeest assurée par la contrainte[14]: 0 λ 2 λ pro max (2.10) Avecλ pro représentant une quelconque valeur propre de la matrice d’autocorrélation du signal d’entrée etλ pro max la plus grande valeur propre de cette matrice. Notons que pour des faibles valeurs deλ(pas d’adaptation), le temps de convergence lui est inversement proportionnel. Le choix deλest trop délicat et sa fixité ne garantit pas une vitesse de convergence optimale de l’algorithme. Par conséquent, il est nécessaire d’y trouver une solution. 27 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2.2 Algorithme du gradient stochastique(LMS)[1] Cet algorithme dit des moindres carrés ou LMS (Least Mean Square) consiste à minimiser l’erreur quadratique moyenne. C’est-à-dire en considérant son gradient au lieu de celui de la moyenne des carrés des erreurs (que nous avons nomméΓ(W)). Cela résout approximativement le problème évoqué au paragraphe précédent pour l’algorithme du gradient déterministe, problème de faible vitesse de convergence pour des très faibles valeurs du pas d’adaptation. Au fait, c’est plus adapté en pratique car on a très rarement∇[Γ(W)]. Ainsi, comme∇[ε 2 (n)] =∇[ε 2 k ] = 2ε k . ∂ε k ∂W =−2.ε k .S k 1 , on aura l’algorithme LMS donné par: W k+1 =W k − 1 2 λ∇[ε 2 (n)] =W k +λS k ε k (2.11) L’adaptation qui assure la convergence en moyenne quadratique la plus rapide est donnée par 2 : λ opt = 2 p.σ 2 (s) (2.12) Avecσ 2 (s)lavariance du signal d’entrée. On remarque que la convergence de l’algorithme LMS dépend de la statistique du signal d’entrée. Pour les signaux non stationnaires, il est difficile de suivre les variations du signal d’entrée avec l’adaptation du filtre par l’algorithme LMS et cela donne une convergence lente. D’où l’algorithme des moindres carrés récursif. 2.2.3 Algorithme des Moindres Carrés Récursif [1]&[14] Cet algorithme, leRecursive Least SquaresRLS, permet de suivre les signaux non stationnaires tout en ayant une vitesse de convergence convenable. Ici, au lieu de minimiser un critère statistique établi sur l’erreur commise en estimant un signal, on minimise, à chaque itération la somme des carrés des erreurs commises depuis l’instant initial. Dans ce cas,Γ(W)serait donné par 1 S k représente le vecteurS(n)à lak ieme itération etε k l’erreur(c’est un scalaire)ε(n)après le même nombre d’itérations. 2 Avec l’hypothèse d’unbruit blancen entrée 28 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF Γ(W) = 1 k ∑ k n=0 ε 2 (n)mais vu que cela n’affecte pas le critère de minimisation, on prendra plutôt: Γ(W) = k ∑ n=0 ε 2 (n)(2.13) La réponseWdu filtre adaptatifest donc fonction des échantillons disponibles et non d’une moyenne statistique générale. Cela est très capital et constitue le noyau de cet algorithme. Par analogie avec le filtre de Wiener on aura les relations 3 : R ss k W k =R sy k (2.14) AvecR ss k = ∑ k n=0 S n .S T n etR sy k = ∑ k n=0 S n .y(n). La réponse impulsionnelle du filtre sera donc modifiée à chaque itération. Pour limiter le nombre des calculs, l’équation à utiliser, et qui constitue l’algorithme RLS, est la suivante: W k+1 =W k +R −1 ss k S k ε k (2.15) Et dans cette formule, le calcul deR −1 ss k se fait par: R −1 ss k = 1 δ [R −1 ss k−1 − R −1 ss k−1 .S T k .R −1 ss k−1 δ+S T k .R −1 ss k−1 .S k ](2.16) AvecR ss 0 = 1 δ .I p avecI p matrice unité de dimensionp×p,δ∈]0,1[etW 0 ≡vecteur nul de dimensionp. Cet algorithme converge plus vite que le LMS mais est plus difficile à mettre au point. Un palliatif à cette difficulté de mise en application est l’algorithme dit NLMS. 2.2.4 Algorithme LMS Normalisé (NLMS) [1]&[6] LeNormalized Least Mean Squaredit NLMS pallie à la complexité du RLS et, de manière directe et plus globale, à l’inadaptation du coefficient d’adaptation de l’algorithme LMS (Problème soulevé à la fin du paragraphe sur l’algorithme LMS). Cet algorithme consiste à normaliser le coefficient 3 C’est logique car les développements sontformellementidentiques 29 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON d’adaptationλdu LMS en prenant en compte l’énergie du signal d’entrée, ce qui réduit au minimum l’effet de l’influence de la variation de la puissance du signal. Cela rend la vitesse de convergence plus ou moins uniforme en passant d’une itération à l’autre. Donc on aura la même formule d’itération que celle donnée pour l’algorithme LMS par l’équation 2.11, à la différence près que le coefficient d’adaptation est ainsi normalisé: λ k = λ S T k .S k +β (2.17) Par conséquent, l’algorithme NLMS est donné par l’équation: W k+1 =W k + λ S T k .S k +β .S k ε k (2.18) βest un facteur permettant de suivre rapidement les variations de l’énergie dans le signal d’entrée. La convergence de cet algorithme est garantie siλ k ∈]0, 2 λ pro max [. L’intérêt de cet algorithme par rapport au LMS est qu’il est indépendant à la variance du signal d’entrée. Il faudra toutefois noter qu’ici aussi il y a dépendance de la convergence de l’algorithme à la statistique du signal d’entrée car la distribution des valeurs propres de la matrice d’autocorrélation du signal n’est pas modifiée. Pour les signaux stationnaires (lebruit blancpar exemple) ou non-stationnaires (signal deparole par exemple), le NLMS apporte une amélioration significative du taux de convergence suite à la normalisation. En ce qui concerne la mise en œuvre, cet algorithme est plus complexe que le LMS mais en pratique il fait partie des plus simples et plus efficaces algorithmes d’adaptation. 2.2.5 Algorithme Proportionné Normalisé (PNLMS)[1] Cet algorithme, le PNLMS, spécialement adapté à l’annulation d’écho, fait l’adaptation avec un taux de convergence variable. Il a plus d’opérations que le NLMS mais converge plus vite; il découle du NLMS en remplaçant leλ k par: λ k = λG k S T k .G k .S k +β (2.19) 30 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF AvecG k =diag[g k (0),···,g k (p−1)]qui est une matrice diagonale de typep×p. Et chaque fois,g k (n) = γ k (n) 1 p ∑ p−1 m=0 γ k (m) oùγ k (n) = max{ρν k ,|w k (n)|},n∈ {0,···,p−1}et ν k = max{δ,|w k (0)|,···,|w k (p−1)|}. Les termesρetδvalent respectivement 5 p et10 −2 . Donc l’algorithme PNLMS est donné par: W k+1 =W k + λG k S T k .G k .S k +β ·S k ε k (2.20) Néanmoins, sous certaines conditions dont ladispersivité de la réponse du filtre adaptatif, le PNLMS devient moins rapide que le NLMS. La solution à ce problème est la combinaison de ces deux algorithmes. D’où l’algorithme nomméPNLMS++. 2.2.6 Algorithme PNLMS++ [1] Cet algorithme est moins sensible aux variations de la réponses impulsionnelle du filtre. Il consiste à combiner les deux précédent comme suit: • Pour les itérations de numéro impair (kimpair), utilisation du PNLMS. • Pour les itérations paires, on utilise le NLMS. Puis en fin de compte on mélange les résultats pour retrouver le filtre optimal. L’algorithme ainsi défini est celui que nous utiliserons. Toutefois, il subira un certain nombre de modifications pour pouvoir devenir plus manipulable et plus optimal. Ces manipulations seront effectuées en faisant en sorte que les calculs puissent s’effectuer sur un processeur de traitement numérique des signaux sans oublier de prendre en compte le coût, la rapidité et la minimisation d’erreurs. Ainsi, nous devons chercher comment réaliser les opérations voulues en utilisant un processeur à virgule fixe, pour ne pas avoir à gérer les erreurs d’arrondissement introduites par une manipulation maladroite duprocesseur à virgule flottante, tout en réduisant le coût d’achat du matériel (le premier processeur étant moins cher que le second). Pour cela, une transformation tout à fait particulière nous sera utile; il faudra juste qu’elle ait les mêmes propriétés qu’une transformation de Fourier (surtout en ce qui concerne la convolution) et qu’elle rende les calculs 31 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON (le traitement) plus optimisé. On le réalise grâce à la transformation qui fait l’objet de la section qui suit. 2.3 Transformée en nombres entiers (NNT) [1] La transformée en nombres entiers a la même forme que la transformée de Fourier discrète mais la supplante en ce sens que la partie imaginaire n’existe plus dans cette nouvelle transformation. La racine primitive considérée dans cette dernière (l’exponentiel complexe) étant remplacée par la racineM ieme de l’unité dans le corps de Galois[2] 4 considéré. Soitαcette racine. Nous avons donc que 〈α M = 1〉 q (2.21) Avec〈·〉 q signifiant que le calcul est faitmodulo q, c’est-à-dire dans un corps de Galois d’ordreq. La formule précédente est celle qui sera chaque fois utilisée pour retrouver la racine primitiveαdès queMetqsont choisis. La transformée en nombres entiers de chaque termex n d’une séquence de longueurMest alors donnée par: X k =〈 M−1 ∑ n=0 x n α nk 〉 q (2.22) Si la longueur de la transforméeMet l’ordreqdu corps fini (sachant que tout corps fini est corps de Galois)[15]GF(q)sont premiers entre eux, il existe alors(M −1 ) 5 tel que〈M.M −1 ≡1〉 q (ceci signifie queM.M −1 est congru à1moduloq) et là l’inverse de la transformée existe siM|(q−1) (ça veut dire queMdiviseq−1), elle est donnée par: x n =〈M −1 M−1 ∑ k=0 X k α −nk 〉 q (2.23) La transformée en nombres entiers n’existe pas toujours; les conditions de son existence sont les suivantes: 4 Chaque fois le corps de Galois d’ordreqsera notéGF(q)selon la notation anglaise standard. 5 Des algorithmes de calcul rapide de l’inverse d’un nombre dans un corps fini existent et seront présentés dès que nécessaire. 32 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] • On doit avoir quepgcd(α,q) =pgcd(M,q) = 1ce qui implique que〈α M = 1〉 q (existence de la racine primitiveα). • Siqest premier, il faut nécessairement queM|(q−1). Sinonq= ∏ k i=0 p m i i etM|pgcd(p i −1,p j −1)∀(i,j)∈ {1,2,...} 2 . Aveci6=jetq= ∏ k i=0 p m i i représentant exactement la décomposition deqen facteurs premiers. • Il faut quepgcd((α i −1),q) = 1siiest un diviseur deM,∀i∈{1,2,...,M−1} 2.3.1 Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) De même que pour la transformée de Fourier discrète, la transformée en nombres entiers demanderait un ordre deM 2 multiplications etM(M−1)additions. L’opération la plus complexe ici est évidemment la multiplication par des puissances de la racine unitéα. De cela découle qu’il est impérieux de faire un choix judicieux de cette racine pour réduire la charge de calcul des processeurs à utiliser (il est ainsi plus malin de choisirαpuissance de 2 pour remplacer toutes les multiplications par des décalages de bit). Le choix de l’ordreqdu corps de Galois dans lequel on choisit de travailler est aussi important pour une programmation plus optimale. Il est plus avantageux de prendre un ordreqégal àun nombre de Fermat. C’est-à-dire un nombre de la forme2 b + 1avecbune puissance de 2 car cela rend l’algorithme très optimal. On parle de latransformation en nombres de Fermat. Il s’agit d’une transformée en nombres entiers dans un corps d’ordre égal à un nombre de Fermat (il faut noter en passant que, seuls les 5 premiers nombres de Fermat sont premiers). Ainsi on a queq= 2 2 t + 1avect∈N. Cette transformée est celle que nous utiliserons vu qu’elle rend nos algorithmes plus optimisés. 2.3.2 Transformation en nombres de Fermat et arithmétique binaire Nous devons analyser la transformation sous cet angle (sous l’angle de l’arithmétique binaire) car cela permet de rester dans notre contexte vu que nos calculs seront exécutés par un processeur numérique fonctionnant sous le même principe. Une FNT (Fermat Number Transform) de longueur quelconqueM= 2 t+1 a juste M 2 log 2 M 33 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON multiplications etMlog 2 Madditions. Nous voyons à quel point il est intéressant de travailler dans un corps de Galois ayant un ordreqégal à un nombre de FermatF t . Le terme générateurα étant aussi essentiel à la réduction de la complexité de calcul, le choix d’unαdifférent d’une racine primitive (contrairement aux indications du début) mais égal à une puissance de2est intéressant en arithmétique binaire pour réduire la charge de calcul en cas de multiplication. Les longueurs possibles sont alors données parM= 2 t+1−i et〈α= 2 2 i 〉 F t avec évidemment(i,t)∈N 2 tel que 06i < t.La longueur de séquence étant égale à une puissance de 2,〈M −1 =−2 2 t −1−(t−i) 〉 F t car en effet, 〈F t −1 = 2 2 t ≡−1〉 F t 〈2 2 t ·2 −(t−i+1) ≡−2 −(t−i+1) 〉 F t 〈M −1 = 2 −(t+1−i) ≡−2 2 t −1−(t−i) 〉 F t (2.24) D’où les formules de transformation seront données, à la lumière des relations 2.22 et 2.23, par: X k =〈 2 t+1−i −1 ∑ n=0 x n ·2 〈2 i nk〉 M 〉 F t x n =〈−2 2 t −1−(t−i) 2 t+1−i −1 ∑ k=0 X k ·2 〈−2 i nk〉 M 〉 F t (2.25) On peut doubler la longueur des séquences tout en conservant unαpuissance de2. Pour cela il suffit de poser quei=−1. Ainsi la racineαest solution de la relation de congruence〈α 2 = 2〉 F t . Donc, α 2 =〈2 = (−1)·2·(−1) =−2·(−1)〉 F t =〈−2·2 2 t = 2 2 t−1 (1−1−2·2 2 t−1 )〉 F t =〈(2 2 t−2 ) 2 ((2 2 t−1 ) 2 −2·2 2 t−1 + 1 2 )〉 F t =〈(2 2 t−2 (2 2 t−1 −1)) 2 〉 F t 34 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] Par conséquent,α≡ √ 2a un sens et existe dans le corps de GaloisGF(q)≡GF(F t )si et seulement sit≥2car du développement précédent on tire clairement que: 〈α≡ √ 2 = 2 2 t−2 ·(2 2 t−1 −1)〉 F t (2.26) Donc,( √ 2 n ) =    〈2 n 2 〉 F t pournpair 〈2 n−1 2 ·2 2 t−2 (2 2 t−1 −1)〉 F t sinon . Commecette transformation admet que la transformée du produit de convolution de deux séquences est égale au produit simple(terme à terme) des transformées des séquences convoluées, elle requiert Mlog 2 Mopérations simples (décalage de bit, additions) etaucune multiplication. Cela est génial vu que comparativement, la transformée de Fourier discrète requiert, hormis les opérations simples, un nombre de multiplications complexes de l’ordre de M 2 log 2 M 2 . 2.3.3 Version rapide de la FNT De même qu’il existe une version rapide de la transformée de Fourier (la FFT comme dit au premier chapitre), il en existe aussi une pour la transformée en nombres de Fermat. Le principe est le même etc’est la même chose du point de vu formel. Il consiste à diviser la séquence en 2 séquences plus petites, ce qui réduit la complexité des calculs. L’implantation de cet algorithme sur un processeur de calcul porte le nom d’implantation Butterfly. Une transformée en nombres de Fermat de dimensionM= 2 n avec0≤n≤b= 2 t peut être calculée en utilisant le principe de l’algorithme FFT de la manière suivante: 〈X k = M−1 ∑ n=0 x n α nk = M 2 −1 ∑ n=0 x 2n α 2nk + M 2 −1 ∑ n=0 x 2n+1 α (2n+1)k 〉 F t 〈X k = M 2 −1 ∑ n=0 x 2n α 2nk +α k M 2 −1 ∑ n=0 x 2n+1 α 2nk =G k +α k H k 〉 F t (2.27) Avec évidemmentG k etH k des vecteurs représentant respectivement les transformées en nombres de Fermat des séquences{x 2n } M 2 −1 n=0 et{x 2n+1 } M 2 −1 n=0 de longueur M 2 . Comme〈α M = 1〉 F t ⇒〈α k+ M 2 =−α k 〉 F t car〈α M = 1 = (−1) 2 = (α M 2 ) 2 〉 F t . 35 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON En fin de compte,    X k =G k +α k H k X k+ M 2 =G k −α k H k k∈[0, M 2 −1]⊂N. Ce découpage de la séquence en 2 parties égales peut être repété pour décomposer la transformée de longueurM= 2 b en{4,8,···, M 2 parties. Toute FNT peut ainsi être calculée grâce àlog 2 (2 b ) =b décompositions. Comme Mb 2 transformées de longueur de séquenceM= 2. Il faudra à chaque étape 2 opérations simples et une multiplication. D’où le total exigeraMlog 2 M additions et M 2 log 2 Mmultiplications pour réaliser une FNT. 2.3.4 La convolution rapide Le calcul de convolution de deux séquences deMéchantillons exige l’application de3transformées en nombre entiers de longueur2M, les séquences étant étendues par des zéros. Soit deux séquences de longueurMchacune donnée par{x(n)} M−1 n=0 et{h(n)} M−1 n=0 , la convolution de ces deux séquences par le principe de la convolution rapide consiste à procéder de la manière suivante: Algorithme 1 (Convolution rapide par NNT)• Formation de deux séquencesx 1 etx 2 à partir de la séquence{x(n)} M−1 n=0 par:                x 1 (n) =    x(n)0≤n < M 2 0 M 2 ≤n < M x 2 (n) =    0M≤n < M 2 x(n) M 2 ≤n < M • Définirh 1 eth 2 de manière identique. • Calculer les transformées en nombres de Fermat des séquences ainsi construites. SoientX 1 ,X 2 ,H 1 etH 2 les transformées correspondant respectivement aux séquences construites ci-haut. Ne pas oublier que: X(k) =〈X 1 (k) +X 2 (k)〉 F t et idem pourH(k)(2.28) • Former trois nouvelles séquences notées{U},{V}et{W}de la manière suivante: 36 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?]          U(k)=〈H(k)•X(k)〉 F t V(k)=〈H 1 (k)•X 1 (k)〉 F t W(k) =〈H 2 (k)•X 2 (k)〉 F t avec le•représentant une multiplication terme à terme des séquences. • Calculer les transformées inverses de ces dernières séquences. Elles seront notées:u(n), v(n)etw(n)respectivement. • Soity=x∗hle résultat de la convolution des séquencesxeth. On aura enfin que: y(n) =                v(n)pour0≤n < M 2 〈u(n)−w(n)〉 F t pour M 2 ≤n < M 〈u(n−M)−v(n−M)〉 F t pourM≤n < 3M 2 w(n)pour 3M 2 ≤n <2M A la différence du calcul de convolution usuel qui demande dans le pire des cas 3 transformées en nombres entiers de longueur2M, cet algorithme exige plutôt7transformées de longueurM et cela est plus avantageux en terme de minimisation du nombre d’opérations complexes (les multiplications). 2.3.5 Multiplication optimale des matrices [8] Le produit de deux matrices représente le plus souvent une charge de calcul assez importante. Une méthode qui a des performances nettement supérieures à celles de la méthode usuelle, surtout pour des matrices de grande dimension, existe et consiste à transformer la multiplication des matrices en un produit de convolution (convolution des séquences composées des coefficients des deux matrices). Ce dernier pouvant finalement être rapidement et facilement calculé grâce aux algorithmes de calcul rapide du produit de convolution dont celui présenté à la section précédente, après une FNT calculée suivant ce qui est montré à la section 2.3.3. Algorithme 2 (Multiplication rapide des matrices)SoientA(a ij )etB(b ij )deux matrices carrées de dimensionM. Leur produitC(c ij )peut s’écrire sous forme polynomialeR(x) =P(x)Q(x), les coefficients dePetQétant trouvés respectivement par: 37 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON    p i+jM =a ij q M(M−1−i+jM) =b ij Avec0≤i,j < Met tous les coefficients non définis égaux à0. Et par multiplication simple des polynômes ou par convolution 6 des séquences qui sont constituées respectivement par les coefficients dePetQon trouveR(x). Les coefficients du produit deAetB sont alors donnés par: c ij =r M 2 −M+i+jM 2 Une convolution faite après FNT tout en appliquant les méthodes rapides et optimales mentionnées dans les parties précédentes permet de réaliser le produit des matrices avec moins deM 3 opérations complexes (multiplications) comme c’est le cas pour une multiplication par la méthode classique. Cette manière de faire sera très utile pour la suite car, avec ce qui est introduit à la section suivante on se rend copte qu’on aura plus besoin de manipuler régulièrement des matrices et des produits de convolution. 2.4 Traitement par bloc des algorithmes d’annulation d’écho 2.4.1 Introduction L’annulation d’écho sera réalisée par un filtre adaptatif. Le filtre à utiliser se doit d’être le plus rapide (vitesse de convergence) et le moins complexe (complexité de calcul) possible. Le filtre PNLMS++tel que présenté précédemment est le candidat idéal à ces deux exigences. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences). Pour cela, l’adaptation sera effectuée plutôt chaque aprèsNtermes de la séquence considérée. Il faudra néanmoins noter que, bien que cette méthode est très avantageuse quant à la réduction 6 Une multiplication des polynômes est équivalente à un produit de convolution des séquences formées par les coefficients des dits polynômes rangés selon le degré croissant. 38 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO du nombre de multiplications, elle a le défaut d’accroître considérablement le nombre d’opérations simples (les additions et les décalages de bit). Pour palier à cet inconvénient et rendre les algorithmes encore plus efficaces, on applique une méthode dite dusliding généraliséqui permet d’éviter plus particulièrement certaines redondances dans les calculs, rendant ainsi les algorithmes plus optimisés (cela pourra être pris en compte lors de l’implantation des algorithmes et non au cours de cette présentation théorique). Prenant toujours référence à la section sur les filtres adaptatifs, nous devons définir certains concepts vu que les quantités qui étaient auparavant des scalaires à chaque adaptation deviennent alors des vecteurs. Etant donné que l’adaptation survient chaque aprèsNéléments de la séquence considérée, tous les blocs (sauf éventuellement le dernier) contiennentNtermes pris dans l’intervalle [kN,kN+N−1]aveckdésignant le numéro du bloc (de l’itération). Les termes de bloc sont donc les suivants: y k = ( y(kN)y(kN+ 1)···y(kN+N−1) ) T y w k = ( (y w (kN)y w (kN+ 1)···y w (kN+N−1) ) T ε k =y k −y w k = ( ε(kN)ε(kN+ 1)···ε(kN+N−1) ) T S k = ( s(kN)s(kN+ 1)···s(kN+N−1) ) T . La définition que nous venons de donner pourS k est plus valable si on se base sur une compréhension brute du concept des blocs. Néanmoins, une manière plus pratique de la définir est de poser qu’elle vaut :S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T , ainsi on prend également en compte la longueur du filtre (pour notre cas, le filtre est de longueurp). La sortie qui est obtenue par convolution du signal en entréeS(n)par la réponse impulsionnelle du filtre sera finalement écrite de manière globale sur le bloc comme suit: y w k =         s(kN)s(kN−1)···s(kN−p+ 1) s(kN+ 1)s(kN)···s(kN−p+ 2) . . . . . . . . . s(kN+N−1)s(kN+N−2)···s(kN+N−p)                 w k (0) w k (1) . . . w k (p−1)         =R k W k 39 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON AvecR k unematrice de Toeplitzde taillep×Netpla longueur du filtre comme mentionné au premier chapitre. Tout en considérant qu’un terme notéw k (n)correspond, à la lumière de la notation du premier chapitre, au coefficientw n du filtre à lak ieme itération. 2.4.2 Algorithmes proprement-dits [1] Pour le cas le plus simple,algorithme LMS par blocsnotéBLMS(Bloc Least Mean Squares), l’erreur quadratique calculée sur un bloc de données sera donnée par:ε T k ε k au lieu deε 2 (n) comme c’était le cas auparavant. Ce qui est évident vu que c’est une généralisation de la fonction élévation au carré. Sachant queS(j)répond à sa définition donnée à la fin du premier chapitre, les coefficients du filtre seront mis à jour grâce à: W k+1 =W k − 1 2 λ∇(ε T k ε k ) =W k − 1 2 λ ∂(ε T k ε k ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (ε(j)) 2 ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (y(j)−S(j) T W k ) 2 ) ∂W k =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN (y(j)−S(j) T W k )(S(j) T )} =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN S(j)ε(j)} =W k +λR T k ε k Et la formule ainsi obtenue peut être réécrite sous la forme d’une convolution car: R T k ε k = (k+1)N−1 ∑ j=kN S(j)ε(j)} ⇒(R T k ε k ) i = (k+1)N−1 ∑ j=kN ε(j)s(j−i) =ε(i)∗s(−i) 40 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO Avec0≤i≤(p−1)pour ne pas dépasser la longueur du filtre et∗le produit de convolution discrète. Les éléments du vecteur d’erreurε k de longueurN, lesε(kN+m)avec0≤m≤N−1peuvent également être exprimés sous forme d’une convolution car on sait que: ε(kN+m) =y(kN+m)−y w k (kN+m) =y(kN+m)− p−1 ∑ i=0 w k (i)s(kN+m−i) =y(kN+m)−w k (m)∗s k (m) Avecs k (m)désignant le terme numéromdans le bloc numérokdu signal d’entrée. Dans ce qui précède il faut remarquer que normalement la convolution a été arrêtée à la longueur du filtre (p). Les deux manipulations qui précèdent seront perpétuées partout où cela sera possible, pour transformer les expressions sous la forme de produit de convolution afin d’appliquer toutes les belles propriétés de la convolution discrète, en terme de réduction du temps de calcul principalement, par utilisation de la transformée rapide (en nombres de Fermat pour notre cas). Grâce au même raisonnement, nous pouvons obtenir les formules de mise à jour des coefficients du filtre pour tous les autres algorithmes. L’algorithme qui nous intéresse étant lePNLMS++, à cause de ses propriétés présentées au premier chapitre, la version par blocs (le BPNLMS++) sera donnée par: • Pour la partie paire (correspondant auBNLMS), W k+1 =W k + λ R ss (k) +β (ε k ∗S −k )(2.29) AvecR ss (k)la fonction d’autocorrélation du signal, soitS k ∗S −k . • Pour la partie impaire (correspondant auBPNLMS), W k+1 =W k + λG k G k R ss (k) +β (ε k ∗S −k )(2.30) AvecS −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T 41 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON Dans la mise en oeuvre pratique de ces algorithmes, tous les éléments seront adaptés de manière à avoir des formes correctes (par ajout des zéros aux vecteurs le nécessitant et suppression de l’erreur ainsi introduite, à la fin des calculs). REMARQUES: Il faudra impérativement noter que les formules ici mentionnées, qui de toute évidence correspondent respectivement au processus de mise à jour des coefficients du filtre dans le cadre duBNLMSet duBPNLMS, ne sont que formelles.En effet, au sens mathématique strict elles ne seront pas valables au vu des dimensions des termes (pour s’en convaincre, il faut noter qu’après formatage des résultats,R ss (k)est de taillep×1,on ne prend que sespderniers termes, donc on ne peut pas l’additionner àβqui est un scalaire mais aussiG k étant une matrice de taillep×p, on aura aussi queG k R ss (k)est de taillep×1et donc même conclusion).Cette notation formelle signifie juste que, pour chaque itération, on calculer le vecteur de taillepdu numérateur et l’autre du dénominateur et le termew k (i)correspondra au résultat obtenu en appliquant la formule mais ayant considéré uniquement les termes numéroide chaque vecteur présent (au numérateur et au dénominateur).Nous y revenons plus clairement lors de l’élaboration de l’algorithme. 2.5 Conclusion partielle Ce chapitre a abordé le processus de filtrage numérique de manière à converger vers un filtre bien adapté à l’annulation d’écho sonore. L’algorithme choisi et adapté pour cet effet est lePNLMS++ qui est comme une synthèse des avantages de divers algorithmes conçus pour la cause précisée. Néanmoins, envisager une implantation plus optimale sur les processeurs de traitement du signal, nous permet de remarquer l’utilité d’introduire la transformée en nombres de Fermat, qui permet de réduire la consommation en ressources qui serait inutilement énorme en cas d’un traitement numérique classique. Le traitement dans le domaine de Fermat, allié à une manipulation des séquences par bloc de données, permet de réduire de manière assez sensible la complexité de calcul des algorithmes mis au point. L’introduction de la transformation en nombres entiers, nous est d’une importance capitale car c’est sur base d’elle que seront écrits, en langage de programmation dédié, nos algorithmes, si on veut les embarquer. 42 sur 84 Chapitre 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ 3.1 Introduction partielle Ce chapitre vient clore notre travail. Nous envisageons y présenter sommairement les éléments qu’il serait normalement nécessaire de concevoir pour réaliser un système de traitement numérique complet du signal. Toutefois, étant donné que notre travail consiste juste à élaboré le filtre, nous nous limiterons, pour les autres blocs de traitement du signal, à la description du minimum nécessaire pour comprendre l’ensemble. Ça veut dire que nous ne concevrons pas les autres parties, sinon nous nous serons totalement écarté du cadre de ce travail. Nous allons considérer que le reste est un acquis à ajuster seulement à la partie concernant le traitement que nous allons élaborer et implémenter sousMatlab. 3.2 Structure globale du système Notre système fonctionne selon la procédure classique de traitement du signal. De ce fait, il sera constitué des blocs habituels. C’est ainsi que la structure globale du système est telle que représenté sur la figure qui suit: 43 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.1: Chaîne typique de traitements du signal On y remarque que minimalement, un système de traitement complet devra contenir des éléments qui réalisent ces5étapes. A l’arrivée du signal il sera d’abord adapté au système, d’où le filtre anti-repliement. Ensuite, comme le traitement est numérique, il sera converti sous forme binaire par le Convertisseur Analogique-Numérique. Par après il subira un traitement adéquat (le filtrage numérique pour notre cas), puis la reconversion sous forme analogique grâce au convertisseur Numérique-Analogique. Finalement, on terminera la mise en forme du signal en le lissant grâce au filtre de lissage. 3.2.1 Filtre anti-repliement Le filtre anti-repliement est nécessaire pour faire respecter le théorème de Shannon, il évite le repliement de spectre auquel on assiste normalement si la condition de Nyquist-Shannon est violée par sous-échantillonnage (c’est-à-dire si la fréquence d’échantillonnage est inférieure au double de la fréquence maximale du signal échantillonné). Ce phénomène est pourtant de règle et n’est en rien une exception vu que normalement, les signaux réels ne sont jamais, stricto sensu, à support fréquentiel borné. Donc, les spectres réels s’étendent toujours jusqu’à l’infini (l’amplitude du signal tendant bien sûr vers0sans jamais s’annuler). Par conséquent, la condition de Nyquist-Shannon ne peut jamais être strictement respectée pour un signal réel. D’où l’importance d’un filtre anti- repliement. Le filtre n’est en effet qu’un passe-bas permettant de limiter la fréquence maximale prise par le signal à traiter pour que nous soyons sûr de choisir une fréquence d’échantillonnage valable (valeur non infinie). 44 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.2: Absence de repliement[7] Figure 3.3: Présence de repliement[7] Il est donc indispensable d’intercaler un filtre anti-repliement avant le convertisseur permettant le passage de l’analogique au numérique. C’est un filtre analogique passe-bas de fréquence de coupureFe/2(dans l’idéal). En pratique, le filtre passe-bas parfait n’existe pas et le repliement du filtre numériquef > Fe 2 est partiellement éliminé. La qualité se paie par l’utilisation d’un filtre anti-repliement élaboré (ordre élevé).[16] Ce filtre passe-bas doit avoir les caractéristiques suivantes: [12] 45 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ - Fréquence de coupure égale àF max ; - Variations de gain minimales dans la bande passante ; - Pente la plus raide possible après la coupure (Ordre élevé); - Atténuation hors bande passante adaptée au nombre de bitsnde la numérisation. En effet, les signaux parasites au-delà deF max vont être atténués par le filtre anti-repliement et se retrouver dans la bande du signal. Pour que ces parasites repliés ne soient pas gênant, il suffit que leur niveau soit suffisamment faible c’est à dire d’un niveau inférieur à la résolution du convertisseur analogique-numérique. En conclusion, le filtre anti-repliement ne supprime pas le phénomène de repliement, mais atténue le signal replié au point de le rendre négligeable. 3.2.2 Convertisseurs Analogique-Numérique et Numérique-Analogique Depuis une trentaine d’années, le traitement numérique des données prend le pas sur les approches purement analogiques. Le recours au numérique permet en effet un stockage aisé de l’information, une excellente reproductibilité des traitements, la possibilité de développer relativement aisément des fonctionnalités complexes, une réduction des coûts de production, etc. L’interface nécessaire entre le monde analogique et un traitement numérique donné est réalisé par des convertisseurs analogique–numérique (CAN, ouADCpourAnalog to Digital Converteren anglais) et numérique–analogique (CNA, ouDACpourDigital to Analog Converter). Le rôle d’un CANest de convertir un signal analogique en un signal numérique pouvant être traité par une logique numérique, et le rôle d’unCNAest de reconvertir le signal numérique une fois traité en un signal analogique.[18] Pour réaliser laconversion analogique-numérique, trois opérations sont nécessaires. Il s’agit, par ordre d’apparition, de l’échantillonnage, de la quantification et du codage. L’échantillonnage du signal doit être fait en tâchant de respecter le théorème de Shannon.Le processus est clairement illustré grâce à la figure qui suit: 46 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.4: Echantillonnage-Quantification-Codage[18] On distingue deux grandes familles de CAN basées sur deux approches différentes du processus d’échantillonnage : lesCAN classiquesdont la fréquence d’échantillonnage est telle que le spectre du signal converti occupe quasiment toute la bande de Nyquist (Nyquist Rate ADC) et les CAN à sur-échantillonnage (Oversampling ADC) dont seule une partie réduite du bruit de quantification (erreur de quantification) affecte le signal converti.[18] Si la fréquence d’échantillonnage est bien choisie, la seule erreur introduite au cours du processus de numérisation résulte de l’approximation faite en codant un nombre infini de valeurs analogiques par un nombre fini2 n de niveaux binaires. Le numérique n’est donc évidemment pas parfait, seulement on peut, en augmentant le nombre de bitsn, diminuer autant qu’on veut l’erreur introduite par la numérisation. Avec , comme objectif, de maintenir l’erreur de quantification en dessous du seuil de sensibilité de l’oreille humaine. Plus le nombre de bits augmente, plus le rapport signal sur bruitSNRs’améliore.[12] Après cette transformation, les données se dirigent vers un processeur de traitement numérique. Un traitement fait en virgule fixe est de toute évidence la plus indiquée pour être plus optimal. Il doit être considéré en cas d’implantation des algorithmes sur DSP vu que les ressources sont limitées. Le convertisseur numérique-analogique permet de communiquer d’un système numérique vers un système analogique. Il convertit donc un nombre binaire en une tension (ou un courant) qui lui est proportionnel. L’entrée est numérique et se note formellementN= (b n−1 ...b 1 b 0 ) 2 avec lesb i ∈{0,1},Nl’entrée numérique etnla résolution numérique (nombre de bits). La sortie est analogique et dans un premier temps, la conversion analogique-numérique se fait simplement paru S =Nq+u S min avec u S la tension à la sortie du convertisseur etqlequantum ou résolution analogique(en Volts).[17] 47 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Par ce qui précède on aura de toute évidence une sortie discrète du fait que les conversions sont réalisées à chaque arrivée d’un échantillon. Pour pallier à cela, le CNA a un système permettant le maintient de la tensionu S en sa sortie, jusqu’à l’arrivée d’un nouvel échantillon. On obtient alors en sortie, unsignal analogique en escalier. Il a ainsi un spectre fréquentiel comportant des fréquences supérieures à la fréquence maximale du signal de base. Cela est dû aux changements brusques observées pour une forme en escaliers. Il est par conséquent important delisserce signal en supprimant les composantes de fréquence élevée pour obtenir finalement un signal à variations majoritairement moins brusques et/ou plus proche du signal analogique désiré. 3.2.3 Filtre de lissage C’est le dernier élément de la chaîne de traitement du signal. Comme dit dans la section précédente, il permet de lisser le signal en escalier qu’on obtient à la sortie du CNA. Le lissage se fait par suppression des fréquences supérieures à la fréquence maximale du signal d’entrée (moitié de la fréquence d’échantillonnage). Il s’agira donc d’un filtre passe-bas comme pour le premier élément de la chaîne (filtre anti-repliement). On en illustre l’importance grâce aux figures qui suivent [18] : Figure 3.5: Positionnement du filtre de lissage Figure 3.6: Processus complet de conversion N/A (signaux associés) 48 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME 3.2.4 Traitement Une fois les données numérisées, elles sont finalement traitées. Le traitement se passe dans un processeur de traitement numérique. Il existe une multitude de processeurs, et également un grand nombre d’architectures utilisées. Néanmoins, certains processeurs sont optimisés pour le traitement du signal. Il s’agit desDSP(Digital Signal Procesing) dont on a sommairement parlé dans les parties précédentes. LeDSPest un microprocesseur optimisé pour exécuter des applications de traitement numérique du signal (filtrage, extraction des signaux, etc.) le plus rapidement possible. Ils sont utilisés dans la plupart des applications du traitement numérique du signal en temps réel. On les retrouve ainsi dans les modems, les téléphones mobiles, les appareils multimédia, les récepteurs GPS, les chaînes de traitement de son,... En bref, partout où l’on reçoit un signal complexe que l’on doit modifier à l’aide du filtrage. UnDSPfournit des instructions usuelles comme la multiplication, l’addition, la soustraction, etc. Mais son jeu d’instructions est élaboré de manière à exécuter des opérations très courantes dans des algorithmes de traitement du signal les plus usuels. Des nombreux algorithmes de traitement du signal ont par exemple besoin d’effectuer rapidement des multiplications suivies d’une addition. LesDSPaccélèrent ces genres de calcul en fournissant des instructions capables de multiplier deux nombres et d’en additionner un troisième en une seule fois (en un cycle d’horloge). CertainsDSParrivent même à réaliser plusieurs opérations complexes de ce genre en un seul cycle d’horloge. La majorité desDSPcalculent exclusivement avec des nombres à virgule fixe. L’absence d’unité en nombre flottant rend le composant meilleur marché tout en permettant une grande vitesse de traitement des données. CertainsDSPpossèdent cependant des unités de calcul en virgule flottante pour des applications exigeant une large dynamique des valeurs ou une grande précision relative des résultats. Ils peuvent être combinés avec d’autres composants dans le même boîtier. C’est ainsi par exemple qu’on a, dans un même, leDSPet les convertisseurs (Convertisseur Analogique- NumériqueetNumérique-Analogique).Dans un appareil équipé d’un DSP, la vitesse d’exécution des calculs dans ce dernier est généralement la partie déterminante de la vitesse d’exécution du travail effectué par la machine.[19] 49 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Au vu de ce que nous venons de montrer dans le paragraphe précédent, leDSPest la solution indiquée pour un système embarqué complet. Pour notre cas, sachant que nos ordinateurs sont équipés des processeurs assez rapides qui arrivent à réaliser le traitement des données avec une vitesse suffisante pour que nous testions de fonctionnement réel de notre système, nous réaliserons dans un premier tempsnotre système en nous servant de l’ordinateur. Les caractéristiques utiles de ce dernier sont précisées dans la section traitant de l’élaboration de l’algorithme. Il s’avère alors indubitable que, comme le traitement que nous mettons au point est un filtrage, avec comme objectif l’annulation d’écho sonore, cette partie (le traitement) suffit pour tirer des conclusions pertinentes sur le système et pour envisager (projet à long terme selon la demande ou le besoin) finalement une production du matériel conçu selon ce travail. Donc, le filtre anti- repliement et autres éléments de la chaîne de traitement du signal ne seront pas conçus par nous mais nous nous servirons de ceux de la carte son de l’ordinateur (pour le test du fonctionnement) et ceux qui seraient couplés au boîtier du DSP (en cas de production matérielle). 3.3 Élaboration de l’algorithme et présentation du système Nous allons réaliser l’annulation d’écho par utilisation de l’algorithmeBPNLMS++, les coefficients seront donc réinitialisés selon le principe illustré par les formules 2.29 et 2.30 AvecS k etS −k définis respectivement par S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T et S −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T . Les deux sont tous de longueurN+p−1prenant directement en compte la longueurpdu filtre ainsi que la tailleNdes blocs d’échantillons. Ce qui précède nous fait immédiatement remarquer que les deux vecteurs ont les mêmes termes mais arrangés en ordre inverse. Mathématiquement, ça correspond à dire queS −k s’obtient en multipliantS k par une matrice carrée de dimensions adéquates et dont tous les termes sont nuls sauf la diagonale secondaire qui sera totalement constituée des1. 50 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 3.3.1 Élaboration de l’algorithme d’apprentissage Soit à utiliser un processeur à16bits, ce qui correspond au dernier nombre premier de Fermat, le cinquième pour être exact. En effet, si nous choisissonsb= 16, ça veut dire que dans la forme canonique des nombres de Fermat introduits à la sous-section 2.3.1 nous avons quet= 4, soit donc que le nombre de Fermat en question est2 2 4 + 1 = 2 16 + 1 = 65537 =F 4 . Ce choix est judicieux vu que nous comptons faciliter les calculs par transformée en nombres de Fermat (FNT), car là on a bel et bien un nombre de Fermat valable (un nombre premier en l’occurrence et en plus le plus grand nombre premier de Fermat connu). Aussi, étant donné ce que nous avons considéré à la sous-section 2.3.2, entre autres les définitions selon lesquellesM= 2 t+1−i et〈α= 2 2 i 〉 F t , en choisissant par exemplei=−2on obtient une longueur de transformationM= 128et〈α= 4 √ 2〉 F 4 = 4938. Voulant conserver le fait selon lequel on ne peut pas transformer une séquence de longueur supérieure à la longueurMde la transformée, nous devons faire remarquer que vu queS k etS −k sont de longueurN+p−1, on doit impérativement respecter la conditionM≥N+p−1ou alors prendre N+p−1< Mpour le compléter ensuite jusqu’à la longueurM. Alors, pour choix on peut prendre par exempleN= 64etp= 64(deux moitiés deM). Sur base de cela, nous aurons les étapes de l’algorithme : 1°)Acquisition et préparation du signal à manipuler; 2°)Écriture des fonctions qui réalisent la FNT et son inverse Après extraction du signal, nous pourrons être amenés à effectuer une transformée en nombres de Fermat sur le vecteur constitué des échantillons. Pour cela, nous devons réaliser ce qui suit: 1. Fonction réalisant la transformée de la séquence de longueur fixéeM; 2. Fonction réalisant la transformée inverse d’une séquence de longueur identique; 3°)Écriture d’une boucle devant réaliser l’apprentissage (adaptation du filtre) : 1. Fenêtrage d’un bloc de64échantillons du signal d’entrée; 51 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ 2. Construction globale du signal d’entrée à considérerS k en faisant précéder les64 échantillons dep−1derniers échantillons provenant du signalS k−1 ; 3. Vu qu’ainsi on aS k de longueurM= 128termes en le complétant, calcul de sa FNT par appel de la procédure correspondante; 4. Initialisation des coefficients du filtre (comme notre filtre est de longueurp= 64, nous prendrons pour filtre initial, un filtre dont tous les64termes sont tous nuls); 5. Complément des coefficients du filtre par des 0 par ajout deM−ptermes nuls pour obtenir un vecteur pouvant subir une FNT de longueurM; 6. Calcul de la FNT du vecteur ainsi formé par appel de la procédure correspondante; 7. Calcul du produit terme à terme de ces deux FNT précédemment obtenus (Transformée deW k complété multipliée par la transformée deS k ; 8. Calcul de la FNT inverse du produit obtenu par appel de la procédure dédiée (cela donne le produit de convolution des coefficients du filtre par le signal d’entrée. Donc on obtienty w k dont seuls lesNderniers termes correspondent auxNvrais échantillons formanty w k ; 9. Formatage dey w k par élimination desM−Npremiers termes inutiles. Pour cela, on multiplie une matrice de tailleN×Mdont lesM−Npremiers termes de chaque ligne sont tous nuls et l’autre partie est semblable à une matrice unitaire de tailleN(c’est-à- dire que tous ses termes diagonaux sont égaux à1) par le vecteury w k obtenu après la transformation inverse de l’étape précédente ; on obtient après cette multiplication, une matriceN×1qui correspond effectivement au vrai vecteury w k recherché; 10. Calcul du vecteur d’erreur par comparaison (une différence) de la valeur trouvéey w k avec la valeur désiréey k ; 11. Complément de ce vecteur par des 0 jusqu’à obtenir un vecteur de longueurMcar c’est bien cela la longueur de la transformée que nous avons choisi d’utiliser (on aura ajouté alorsM−Ntermes nuls); 12. Calcul de la FNT du vecteur d’erreur ainsi complété; 52 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 13. Construction du vecteur imageS −k en multipliant le vecteurS k déjà bien formaté et complété par une matrice de tailleM(matrice carrée donc) dont tous les termes sont nuls à part ceux de la diagonale secondaire qui sont tous égaux à1. La multiplication de cette dernière matrice parS k a donc pour effet de renverser l’ordre de ses termes; 14. Calcul de la FNT de ce vecteur image; 15. Calcul du produit terme à terme de ce vecteur image transformé avec le vecteur d’erreur transformé; 16. Calcul de la transformée inverse du résultat ainsi obtenu (la réponse correspond au vecteurε k ∗S −k dont seuls lespderniers termes forment le vrai vecteur recherché; 17. Formatage du résultat obtenu en lui appliquant une matrice que nous nommonsE, de dimensionp×Mpour obtenir au final un vecteur de taillep. Pour cela on multiplie la matrice construiteEpar le résultat obtenu à l’étape précédente. Cette matrice en est en fait une dont lesM−ppremiers termes de chaque ligne sont nuls et l’autre partie est comme une matrice carré de taillep×pdont les termes de la diagonale principale sont tous égaux à1et les autres sont tous nuls (matrice unitaire de taillep); 18. Calcul du produit terme à terme du vecteur d’entréeS k transformé avec son vecteur imageS −k aussi transformé; 19. Calcul de la transformée inverse du précédent produit (cela nous permet d’obtenir la fonction d’autocorrélation du signal d’entréeR ss (k) =S k ∗S −k qui est aussi réduit à sespderniers termes en lui appliquant la matriceEcomme cela a été fait à l’étape17; 20. Construction de la matrice diagonaleG k de taillep×ptel qu’elle fut définie à la sous- section 2.2.5; 21. Calcul des vecteursG k .(ε k ∗S −k )etG k .R ss (k); 22. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBNLMS(tout en tenant compte de la dernière remarque de sur l’état formel des formules duBNLMSet duBPNLMS). On appliquera donc précisément 53 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ W k+1 (i) =W k (i) + λ [R ss (k)](i)+β [(ε k ∗S −k )](i) ; 23. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBPNLMSen tenant également compte du fait que la formule s’exprime réellement par : W k+1 (i) =W k (i) + λ [G k R ss (k)](i)+β [G k (ε k ∗S −k )](i) ; 24. Construction du vrai vecteur des coefficients du filtre en prenant tous les termes impairs égaux aux termes impaires correspondants du vecteur trouvé à l’étape précédente et les termes pairs aux termes pairs correspondant du vecteur trouvé à l’étape22(ainsi on vient de réinitialiser le filtre en appliquant leBPNLMS++); 25. Relance de la boucle jusqu’au nombre d’itérations voulu. 4°)Fin de la boucle, renvoi des valeurs figées des coefficients du filtre en les formatant si nécessaire 3.3.2 Présentation du système réel Après cette étape d’apprentissage, on obtiendra les coefficients du filtre qui modélisent au mieux la réponse impulsionnelle de l’enceinte considérée. Ainsi, comme mentionné à la sous-section 1.3.1, le signal d’écho obtenu dans l’enceinte considérée peut bel et bien aussi s’obtenir,dans les mêmes conditions, par convolution du signal d’entrée avec le vecteur formé des coefficients du filtre ainsi construit. Cette solution est cruciale et déterminante pour l’efficacité et la rapidité 1 des systèmes de communication. En effet, annuler directement l’écho grâce à un modèle numérique équivalent à l’enceinte utilisée, nous permet : • De ne pas avoir à empêcher un locuteur de parler lorsque l’autre parle; 1 Sans ignorer les autres avantage d’un système d’annulation d’écho tout court. 54 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS • De simuler l’écho venant de n’importe quelle source (sélectionner un signal en particulier dont on veut extraire l’écho) pour ensuite le soustraire du signal qu’on compte transmettre. Ce qui serait carrément impossible sans cette modélisation de la réponse de la salle. Le système se résume donc ainsi : Deux interlocuteurs ayant chacun un combiné de communication, équipés chacun d’un système d’annulation d’écho, sont dans deux enceintes différentes (et dans la même enceinte à la limite ; mais c’est sans intérêt). On procède premièrement à une phase d’apprentissage où, un son de quelques secondes est émis par le haut-parleur des combinés de chaque locuteur et le filtre de chaque combiné est mis à jour. Ensuite s’établit la communication entre les deux interlocuteurs où, chaque fois que l’une des sources émet un signal, on en soustrait la modélisation de l’écho du signal venant de l’autre. Ainsi, aucun des deux ne peut réentendre sa voix à travers son haut-parleur. Cela résout le problème d’écho acoustique associé au système de communication considéré. Dans la suite (pour les essais) nous n’allons considérer qu’un interlocuteur.Pour cela, le signal venant de l’autre sera juste appelésignal lointainet celui qui vient du locuteur présent dans la salle d’expérimentation sera ditsignal local. Cela nous permettra de réaliser l’adaptation du filtre et de vérifier si le filtre obtenu modélise bel et bien l’enceinte prototype. 3.4 Implémentation de l’algorithme et simulations Dans cette section, nous allons écrire l’algorithme élaboré dans la section précédente en langage Matlab (qui a évidemment une syntaxe proche duCet qui nous permettra aumoins de réaliser des expérimentations de manière moins complexe). Utilisant un processeur à virgule flottante (celui de l’ordinateur), nous n’allons pas nous cramponner sur le formatage du signal d’entrée. Par conséquent, la transformation de Fourier va suffire pour avoir un aperçu de l’algorithme global. 3.4.1 Traitement brut des données Ce traitement revient à réaliser l’adaptation des coefficients du filtre à la manière dont la théorie a été élaborée au début du second chapitre. Donc sans optimiser le temps de calcul avec un traitement 55 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ par blocs. Nous allons donc réaliser un algorithme d’adaptation évoluant échantillon par échantillon et non par blocs. Ceci est utile pour remarquer la précision de ce traitement malgré le manque de robustesse et la charge de calcul. L’algorithme élaboré pour cet effet est ,sousMatlab, donné par l’annexe .1 . La compilation de ce code a duré12.424632secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour un signal d’entrée pris enregistré sur40secondes(voir la ligne12de ce code) pour pouvoir pousser très loin l’adaptation (jusqu’à20850tours de boucle principaux comme on le voit à la ligne43de ce code). Le signal d’entrée était: Figure 3.7: Signal d’entrée utilisé Pouri= 20850tours de boucles (voir la ligne43du code), nous avons obtenu les coefficients du filtre représentés en fonction des numéros d’échantillons par: 56 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.8: Valeurs des64coefficients du filtre Sous cette forme, on a remarqué que la convergence du filtre est relativement lente bien que le résultat soit plus parfait. On va le montrer clairement dans les sections suivantes. 3.4.2 Traitement par bloc des données L’algorithme utilisé et qui suit les étapes décrites précédemment (à la section 3.3.1 qui concerne l’élaboration de l’algorithme conseillé pour un implantation sur DSP) est donné à l’annexe .2 . Il est très important de signaler que bien que les étapes décrites lors de l’élaboration textuelle de l’algorithme soient faites pour le cas d’un traitement par FNT etpour un processeur à virgule fixe fonctionnant sous16bits, le fait que nous ayons utilisé un processeur sous64bitset la transformée de Fourier est tout à fait admissible. L’algorithme textuel a juste été élaboré pour considérer le cas le plus général et pour nous guider dans l’implémentation, surtout que cela permet également d’optimiser à la fois les coûts et l’exploitation des ressources. On remarque des simplifications drastiques en ce qui concerne le formatage des vecteurs. C’est ainsi qu’à la ligne73de ce code (annexe .2 ), on remarque qu’au lieu de multiplier le vecteur à128 57 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ termes par une matrice particulièreE(comme nous le suggère le point3en son étape17de la sous- section 3.3.1 sur les étapes de l’algorithme),Matlabnous permet d’extraire très simplement ces derniers termes. C’est le cas également aux lignes62et77(annexe .2 toujours) où les manipulations sont grandement simplifiées par rapport à ce que nous proposions au préalable. Ces propositions ont tout de même le mérite d’être plus générales comme méthode et donc utilisables même quand le langage ne permet pas une manipulation très simple des matrices. La compilation de ce code a duré8.219884secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour le même signal d’entrée que précédemment (voir la ligne 12de ce code et la figure 3.7) pour pouvoir pousser très loin l’adaptation. Ainsi on a obtenu en fonction des numéros d’échantillons le filtre suivant: Figure 3.9: Les64coefficients du filtre 2 Le filtre obtenu ici par contre est moins précis mais s’obtient plus vite à cause de la grande vitesse de convergence des algorithmes de traitement par bloc. Normalement, suite aux manipulations des vecteurs, on obtient unfiltre renversé et décalécomme on le voit sur cette figure: 58 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.10: Les64coefficients du filtre 2 non formatés De cela on obtient très aisément la courbe recherchée trouvée à la figure 3.9 grâce au formatage des coefficients, réalisé avec le bout de code de la ligne112(annexe .2 ) donné par: w=((ones(1,64)) * (mean(w))-(w))/(mean(w)); Pour réaliser ce formatage, il suffit de détecter la valeur moyenne (on écritmean(w)). Pour notre signal d’entrée, le filtre non formaté avait pour moyenne(13.5)(voir la figure 3.10). 3.4.3 Essais comparés Essayons, pour le même signal d’entrée (figure 3.7), de trouver les coefficients du filtre pour les deux cas en considérant différentes valeurs dei(nombre d’itérations qu’on voit aux lignes43des codes qu’on a aux annexes .1 et .2 ) et observons l’évolution des coefficients. Nous prendrons des valeurs inférieures à20850car pour une boucle allant trop au delà, nous risquons de dépasser la longueur maximale des vecteurs. Notons que le signal d’entrée formaté sous forme vectorielle était de taille1764352échantillons. 1°) Pouri= 10000on obtient: 59 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.11: Coefficients du filtre 1 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement échantillon par échantillon (ce qui a duré6.073958secondes). On a pratiquement le bon filtre. Figure 3.12: Coefficients du filtre 2 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré3.920202secondes, presque la moitié du temps nécessaire au traitement brut précédent). C’est pratiquement les mêmes coefficients que ceux obtenus pour le cas où le nombre d’itérations était20850. 2°) Pouri= 1000on obtient: 60 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.13: Coefficients du filtre 1 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement échantillon par échantillon (a duré0.658588secondes). Malgré que la forme est bonne, les coefficients sont très faibles. Figure 3.14: Coefficients du filtre 2 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement par blocs d’échantillons (pour un temps de calcul de0.426955secondes). Malgré un léger décalage vers le haut, on a obtenu pratiquement le filtre final. 3°) Pouri= 100on obtient: 61 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.15: Coefficients du filtre 1 pour 100 itérations Coefficients, obtenus aprèsi= 100itérations par l’algorithme de traitement échantillon par échantillon (durée de compilation de0.079877secondes). Malgré que la forme commence déjà à se dessiner, les coefficients sont très faibles (c’est un filtre à coefficients quasi nuls). Figure 3.16: Coefficients du filtre 2 pour 100 itérations Coefficients du filtre, obtenus aprèsi= 100itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré0.057885secondes). La forme commence déjà à se dessiner mais les coefficients sont encore trop décalés vers le haut. 4°) Pouri= 10on obtient: 62 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.17: Coefficients du filtre 1 pour 10 itérations Au début de l’adaptation du filtre , les coefficients sont très mauvais. Cette figure représente l’adaptation du filtre échantillon par échantillon après10itérations. Figure 3.18: Coefficients du filtre 2 pour 10 itérations Au début de l’adaptation du filtre, les coefficients sont très mauvais. Pour10itérations, avec le traitement par blocs, on n’a toujours pas même l’esquisse des valeurs souhaitées. 4°) Il y a également deux valeurs particulières pour les deux implémentations, les valeurs dei auxquels les filtres auront presque complètement atteint les coefficients escomptés. Après plusieurs essais on obtient: •i= 4370pour le filtre en traitement brut (filtre 1) 63 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.19: Coefficients du filtre 1 pour 4370 itérations L’algorithme de traitement échantillon par échantillon donne des très bons coefficients mais après beaucoup d’itérations (i= 4370) et trop de temps (3.296686secondespour notre cas). •i= 400pour celui du traitement par blocs (filtre 2) Figure 3.20: Coefficients du filtre 2 pour 400 itérations L’algorithme de traitement par bloc permet d’obtenir après seulement0.173829secondes, des coefficients très proches des bonnes valeurs (bien que n’étant pas très affinés, ils 64 sur 84 3.5. ANALYSE DES RÉSULTATS ET EXPLICATION DE L’IMPLANTATION SUR DSP sont assez bons pour que le passage du signal à travers un filtre ayant des telles valeurs nous donne presqu’exactement la sortie souhaitée). 3.5 Analyse des résultats et explication de l’implantation sur DSP 3.5.1 Analyse des résultats Ce que nous venons d’obtenir à la sous-section 3.4.3 est très crucial pour remarquer la puissance du traitement par blocs. On remarque très bien que le filtre élaboré par un traitement échantillon par échantillon n’évolue pas très vite vers les vraies valeurs, et se dégrade très vite avec la réduction du nombre d’itérations, tandis que le traitement par blocs est à la fois rapide (en terme de temps de calcul) et converge plus vite vers le filtre optimal. Dans le code , à la ligne61pour le premier (annexe .1 ) et64(annexe .2 ) pour le second, on a spécifié que le résultat attendu à la sortie du filtre devait être, pour tester le fonctionnement de notre algorithme, le même signal mis à l’entrée (donc l’erreur est minimisée de manière à ce que le signal d’entrée soit le même que celui obtenu après avoir traversé le filtre). Or nous savons très bien que pour avoir une sortie identique à l’entrée, la réponse impulsionnelle du filtre doit être une impulsion toujours. Et évidemment, le filtre optimal que nous avons obtenu s’approche d’une impulsion comme on le voit très bien aux figures 3.8 et 3.9.Le premier est évidemment plus proche d’une impulsion que le second bien qu’obtenu grâce à un algorithme moins robuste. En effet, le premier algorithme, qui nous permet d’obtenir des meilleurs coefficients, converge très lentement et se dégrade très vite quand on diminue le nombre d’itérations; en plus il prend trop de temps pour donner les résultats. Pour s’en convaincre, voir les figures 3.11 puis 3.13 ensuite 3.15 et finalement 3.17, on remarque très bien dans peu de temps que l’amplitude des coefficients du filtre se dégrade très vite et que les coefficients eux aussi deviennent de plus en plus écartés des bonnes valeurs jusqu’à la dégradation complète à la dernière figure, la figure 3.17). Le second, celui obtenu grâce à l’algorithme de traitement par blocs et dont l’évolution des coefficients est représentée en ordre par les figures 3.12 puis 3.14 ensuite 3.16 et finalement 3.18, est moins précis mais nettement plus robuste que le premier. En effet, il demande peu de temps de calcul et se dégrade très lentement 65 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ quand on diminue le nombre d’itérations.Malheureusement, il nécessite d’importantes corrections d’erreurs. En bref, la comparaison des résultats représentés par les figures 3.19 et 3.20 nous montre nettement la supériorité du traitement par blocs par rapport au traitement échantillon par échantillon. On remarque très clairement la nécessité d’une implantation par blocs pour avoir un traitement en temps réel (voir les commentaires afférentes aux deux figures précédentes). 3.5.2 Explication de l’implantation sur DSP L’implantation sur DSP à virgule fixe et sous16bitsexige l’adaptation de l’algorithme élaboré (celui de l’annexe .2 ) de manière à ce qu’on puisse réaliser le même traitement. Pour cela, on n’a que deux choses particulières à réaliser: • Formater le signal d’entrée de manière à l’adapter au processeur si nécessaire et • Ecrire une fonction qui réalise la transformée en nombres de Fermat tel qu’on l’a décrite et opltimisé dans les parties précédentes ainsi que son inverse. En utilisant juste les formules données. Après avoir réalisé cela, le code sera exactement le même que celui qui a été élaboré pour le traitement par blocs en se basant sur l’esquisse qui a été faite de l’algorithme au point 3.3.1. Le formatage quant à lui, quand il est nécessaire, se réalise facilement par des manipulations simples (multiplications suivies des arrondissements). Cette dernière méthode introduit évidemment une erreur mais dès qu’on envisage de l’utiliser, on peutétudier la technique adaptée pour la réduction de l’erreur qui serait introduite à la fois par ce formatage et celui réalisé durant le filtrage. Après avoir ainsi adapté l’algorithme, il faudra alors l’écrire enassembleurpour adapter le code à l’architecture du DSP choisi ou carrément en langageC, laissant au compilateur le soin d’optimiser le code en l’adaptant au DSP (C’est la solution la plus simple en fait). 3.6 Annulation d’écho Notre travail a consisté principalement à élaborer le filtre qui peut s’utiliser pour annuler l’écho dans un système de communication. Nous allons montrer la meilleure annulation que nous avons pu 66 sur 84 3.6. ANNULATION D’ÉCHO obtenir avec les filtres conçus. Il s’agit de l’annulation grâce au filtre implémenté par l’algorithme en annexe .1 qui est le plus précis (l’autre est le plus indiqué en cas d’embarquement mais nécessite d’astucieuses corrections d’erreurs). Les coefficients de ce filtre sont donnés par la figure 3.8, il correspond presqu’exactement à une impulsion. On obtient d’abord la sortie et l’annulation par le codeMatlabsuivant 2 : 1-sortie=conv(w,myrecordings); 2-echoTransmis=(sortie(1:1608500))-(myrecordings(1:1608500)); Ce bout de code a été exécuté à part, mais après l’exécution de celui d’adaptation pour pouvoir utiliser les mêmes variables. Il réalise en sa première ligne, la convolution du vecteur formé par les coefficients du filtre avec le signal d’entrée (c’est le filtrage si on pose que le filtre est approximativement linéaire). A la deuxième ligne on réalise alors la suppression d’écho pour le cas où le signal n’est pas trop modifié par l’enceinte (comme nous l’avons posé pour tester la validité de nos codes). On a considéré1608500échantillons pour ne pas risquer de dépasser la taille totale des vecteurs car le signal en entrée avait environs1700000échantillons. Dans cette figure (a) Echo résiduel après filtrage. (b) Echo sans filtrage. Figure 3.21: Démonstration de l’annulation d’écho (la figure 3.21), nous comparons l’écho reçu après filtrage du signal à envoyer à l’interlocuteur lointain, avec l’écho qu’il recevrait si le filtage n’était pas préalablement réalisé. Plus précisément, 2 Se référer à l’annexe .1 pour remarquer quemyrecordingreprésente le signal en entrée 67 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ on réalise un filtrage pour modéliser l’écho, puis on le soustrait du signal à transmettre pour que l’interlocuteur lointain ne perçoive pas sa voix dans le signal qu’il recevra. Ainsi, en observant très bien les échelles des axes de ces figures, on remarque une atténuation très importante de l’écho. En effet, l’écho qui persiste après filtrage (voir la figure 3.21a) est environ ledixièmede celui qui est perçu lorsqu’aucun filtrage n’est réalisé 3.21b. Et on y voit très bien que pour ce dernier cas (absence de filtrage) l’interlocuteur lointain va entendre exactement son signal lui revenir. D’où la nécessité du filtrage. 3.7 Conclusion partielle Dans cette dernière partie, nous avons tout d’abord décrit les éléments principaux nécessaires à l’élaboration d’un système annulateur d’écho sans prendre en compte le fait qu’il peut être incorporé à un système déjà mis en place. C’est ainsi que nous avons vu en passant la chaîne de traitement du signal et finalement nous nous sommes focalisé sur la partie concernant le traitement proprement-dit par filtrage. Cela nous a conduit à élaborer l’algorithme d’adaptation des coefficients du filtre de manière détaillée sousMatlaben vu d’en évaluer le fonctionnement et l’adéquation aux résultats attendus. Et bien évidemment, nous nous attendions à un filtre semblable à une impulsion et nous l’avions obtenu de très près comme le prévoit la théorie. Nous avons finalement terminé par une illustration de l’annulation d’écho et une explication de l’implantation de l’algorithme sur DSP en système indépendant. 68 sur 84 CONCLUSION GÉNÉRALE Au début de ce travail, nous pensions devoir considérer en profondeur les phénomènes physiques sous-jacents à la propagation des ondes sonores. Au cours des recherches, nous nous sommes rendu bien compte qu’il était plus rapide et rentable de modéliser juste l’ensemble, pour pouvoir mener à bien le travail à un coût dérisoire. Il est en effet plus optimal de traiter les phénomènes complexes, comme les phénomènes de propagation du son en dehors des conditions de laboratoire, de manière approximative mais globale au lieu de les voir en détail. Comme cela a bien été souligné, l’approche détaillée est utopique vu que le coût de calcul est immensément énorme. En introduction, nous avons posé comme hypothèse, que le filtrage est une solution à la présence indésirée d’écho dans un système de communication, et ce travail vient évidemment de nous conforter dans cette affirmation. Nous avons également supposé qu’un filtrage purement analogique serait moins rentable mais nous nous sommes rendu compte au fil du travail que, cette proposition doit être bien nuancée. En effet, durant ce travail, nous avons montré que nous ne pouvons, si nous considérons le système dans son ensemble (et non seulement la partie qui concerne le traitement algorithmique), nous passer d’une partie de traitement analogique du signal (penser au filtre anti- repliement par exemple). Néanmoins, en nous basant uniquement sur le filtrage du signal reçu, sans trop nous fier au formatage et à la correction du rapport signal sur bruit, nous pouvons sans doute nous fier uniquement à un traitement purement numérique. Finalement, au vu du processus mis en œuvre pour l’adaptation du filtre annulateur d’écho, nous confirmons la troisième hypothèse lancée en introduction et affirmant qu’on ne peut se passer d’une mémorisation dynamique du signal durant une partie du traitement pour pouvoir mener à bien l’annulation de l’écho sonore lié au système de communication. 69 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Ce travail a pointé du doigt la puissance de la théorie mathématique de traitement du signal. C’est ainsi qu’il a pu déboucher sur le filtrage numérique et en premier lieu sur le filtrage de Wiener qui est évidemment un prélude inévitable pour aborder le filtrage adaptatif. Le filtrage adaptatif car, comme cela a été plusieurs fois mentionné, c’est le moyen par excellence pour pouvoir modéliser un système non stationnaire comme c’est le cas pour les systèmes sonores. Notre travail a donc consisté à élaborer un filtre numérique modélisant l’enceinte dans laquelle le son va se propager, de telle sorte qu’il ne puisse pas y avoir une grande différence entre le son perçu à la sortie du filtre et celui qui serait perçu après avoir parcouru la salle. Cela revient donc à modéliser le chemin d’écho. Pour cela, les coefficients du filtre élaboré doivent correspondre à la réponse impulsionnelle de l’enceinte (à l’endroit où l’on se tient pour la mesurer). Toutefois, les signaux sonores étant très instationnaires, il est impérieux d’adapter ces coefficients au fur et à mesure de la réception du signal. D’où la nécessité des filtres adaptatifs comme on l’a tantôt montré. Nous avons développé les algorithmes du filtrage adaptatif en nous focalisant sur les plus indiqués pour l’identification des système (le chemin d’écho pour notre cas). Cela nous a conduit à considérer un algorithme nomméPNLMS++qui est très indiqué dans des tels systèmes pour sa grande vitesse de convergence et sa robustesse. L’objectif visé est qu’en cas de besoin, les théories abordées dans ce travail puissent être exploitées directement pour élaborer des systèmes devant équiper des appareils de communication habituels pour l’annulation d’échos sonores éventuels. C’est pour cette raison qu’il nous a semblé très important de montrer de quelle manière on pourrait réduire toujours plus fortement la charge de calcul des processeurs numériques à utiliser ainsi que le coût (d’un point de vu pécuniaire) de l’ensemble. De toute évidence, les processeurs à virgule fixe sont les plus adaptés à l’élaboration des plate-formes à faible prix tout en gardant une efficacité admissible quand ils sont programmés en conséquence. Ils allient en fait la rentabilité financière à la précision en ce qui concerne notre projet. Ce qui précède justifie le choix d’un traitement tout à fait particulier des données pour les rendre adaptées le plus fortement possible aux processeurs à virgule fixe (il s’agit du traitement par transformation en nombres de Fermat en lieu et place de la transformation de Fourier). Cette nouvelle transformation a toutes les propriétés nécessaires pour développer et optimiser la majorité des processus d’annulation d’écho dès qu’on décide de les implanter sur un processeur à virgule fixe. 70 sur 84 3.7. CONCLUSION PARTIELLE Au préalable, nous prévoyions réaliser les algorithmes en langage C mais nous étant rendu compte du fait que cela serait sans intérêt( en première approximation), nous avons choisi de développer le système sous Matlab sachant que si on envisageait une implantation sur DSP, l’adaptation du code serait simple étant donné la similarité des syntaxes de ces deux langages. C’est sous cet angle que nous avons mis au point sous Matlab un algorithme complet d’adaptation des coefficient du filtre destiné à l’annulateur d’écho. Aux futurs chercheurs, nous suggérons l’étude complète de l’incorporation des algorithmes ici conçus, aux systèmes de communication complets ainsi que, la correction des erreurs introduites dans le filtre obtenu en cas de traitement par blocs, pour améliorer encore plus l’atténuation de l’écho par cette méthode vu que ce dernier traitement est le mieux adapté au fonctionnement en temps réel. 71 sur 84 ANNEXES 73 .1. ALGORITHME DE TRAITEMENT BRUT .1 Algorithme de traitement brut 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -yk=ones(1,64); 27 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 28 -b=100; 75 sur 84 29 -D=(1/64); 30 -rho=0.01; 31 -mu=0.8; 32 -%Initialisation des W pour NLMS puis PNLMS. 33 -w1=(ones(1,64))’; 34 -w2=(ones(1,64))’; 35 -%Initialisation des vecteurs utiles au calcul de Gk. 36 -gam=zeros(1,64); 37 -gk=zeros(1,64); 38 -%Initialisation des vecteurs d’erreur et de W. 39 -err=(1:64000); 40 -w=zeros(1:64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Récupération du vecteur d’entrée à chaque étape i 45 - sign=(myrecordings((64+(i-1)):-1:(1+(i-1))))’; 46 - 47 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 48 - Vk=max([D,abs(w)]); 49 - %Calcul du vecteur Gk 50 - for k=1:64 51 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 52 - end 53 - for M=1:64 54 - gk(M)=((gam(M))/(mean(gam))); 55 - end 56 - Gk=1 * diag(gk); 57 - %Calcul des éléments du vecteur d’erreur en gérant le début 58 - for s=1+(i-1):64+(i-1) 76 sur 84 .1. ALGORITHME DE TRAITEMENT BRUT 59 - sign2=(myrecordings((64+(s-1)):-1:(1+(s-1))))’; 60 - yk(s) = (sign2) * w’; 61 - err(s+63)=((yk(s)-myrecordings(64+(s-1)))); 62 - end 63 - 64 - %Début du processus de réinitialisation du filtre 65 - 66 - %Algorithme PNLMS (Calcul du vecteur W1) 67 - w1=(w’+(mu * Gk * ((sign)’) * err(i+63))/(sign * Gk * (sign)’+b))); 68 - %Algorithme NLMS (Calcul du vecteur W2) 69 - w2=(w’+((mu * ((sign)’) * err(i+63))/(((sign) * ((sign)’)+b)))); 70 - 71 - 72 - %Réinitialisation des coefficients du filtre par PNLMS++ 73 - 74 - for k=1:64 75 - %Coefficients impairs par PNLMS 76 - if mod(k,2)==1 77 - w(k)=w1(k); 78 - %Coefficients pairs par NLMS 79 - elseif mod(k,2)==0 80 - w(k)=w2(k); 81 - end 82 - end 83 -end 84 -%Fin du chronométrage 85 -toc; Revenir dans le texte en cliquant 3.4.1. 77 sur 84 .2 Algorithme de traitement par blocs 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage en respectant Shannon 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -w=zeros(1,64); 27 -zero=zeros(1,64); 28 -%Complément de W par des zeros pour atteindre la longueur réquise 78 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 29 -wk=[w,zero]’; 30 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 31 -b=100; 32 -D=(1/64); 33 -rho=(10^(-2)); 34 -mu=(0.8); 35 -%Initialisation des W pour BNLMS puis BPNLMS. 36 -w1=(ones(1,64))’; 37 -w2=(ones(1,64))’; 38 -%Initialisation des vecteurs utiles au calcul de Gk. 39 -gam=zeros(1,64); 40 -gk=zeros(1,64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Sélection particulier du premier bloc d’échantillons 45 - if i==1 46 - sign=(myrecordings(1:128))’; 47 - sign2=(myrecordings(128:-1:1)); 48 - %Sélection général de tous les blocs 49 - elseif i>=2 50 - sign=(myrecordings(65+64 * (i-2):192+64 * (i-2)))’; 51 - sign2=(myrecordings((192+64 * (i-2)):-1:(65+64 * (i-2)))); 52 - end 53 - 54 - %Transformation du signal d’entrée et du vecteur W 55 - SIG=fft(sign); 56 - W=(fft(wk))’; 57 - %Calcul du produit terme à terme des deux vecteurs 58 - Y=SIG. * W; 79 sur 84 59 - %Transformation inverse pour retrouver le produit de convolution 60 - YW=ifft(Y); 61 - %Sélection des termes utiles recherchés 62 - yw=YW(65:128); 63 - %Calcul du vecteur d’erreurs 64 - err=(myrecordings(1+64 * (i-1):64 * i))’-(yw); 65 - %Complément du vecteur par des zeros puis transformation 66 - ERR=[err,zero]; 67 - errF=fft(ERR); 68 - %Transformation du vecteur image 69 - SIG2=fft(sign2); 70 - %Réalisation de l’étape 3°) points 15, 16 et 17 de l’algorithme 71 - ERsign=(errF)’. * (SIG2); 72 - erSIGN=ifft(ERsign); 73 - es=erSIGN(65:128); 74 - %Réalisation de l’étape 3°) points 18 et 19 (autocorrélation) 75 - RSS=SIG2. * (SIG)’; 76 - RSs=ifft(RSS); 77 - Rss=RSs(65:128); 78 - 79 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 80 - Vk=max([D,abs(w)]); 81 - %Calcul du vecteur Gk 82 - for k=1:64 83 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 84 - end 85 - for M=1:64 86 - gk(M)=((gam(M))/(mean(gam))); 87 - end 88 - Gk=diag(gk); 80 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 89 - %Réalisation de l’étape 3°) point 21 90 - GkRss=Gk * (Rss); 91 - 92 - GkEsi2=Gk * es; 93 - 94 - %Réinitialisation des coefficients du filtre 95 - 96 - for j=1:64 97 - %Algorithme BPNLMS 98 - w1(j)=(w(j)+((mu * GkEsi2(j))/(GkRss(j)+b))); 99 - %Algorithme BNLMS 100 - w2(j)=(w(j)+((mu * es(j))/(Rss(j)+b))); 101 - 102 - %Réinitialisation des coefficients du filtre par BPNLMS++ 103 - %Coefficients impairs par BPNLMS 104 - if mod(j,2)==1 105 - w(j)=w1(j); 106 - %Coefficients pairs par BNLMS 107 - elseif mod(j,2)==0 108 - w(j)=w2(j); 109 - end 110 - end 111 -end 112 -w=((ones(1,64)) * (13.5)-(w))/(13.5); 113 -%Fin du chronométrage 114 -toc; Revenir dans le texte en cliquant 3.4.2. 81 sur 84 Bibliographie [1] ALAEDDINE, H.Application de la transformée en nombres entiers à la conception d’algorithmes de faible complexité pour l’annulation d’échos acoustiques.PhD thesis, Université de Bretagne Occidentale, Juillet 2007. Investigations théoriques. [2] CALAIS, J.Extensions de corps _ Théorie de Galois, ellipses ed. Mathématiques à l’Université, 2006. [3] CARIOLARO, G.Unified Signal Theory. Springer, University of Padova, Italy, 2011. [4]DECOULON, F.Théorie et traitement des signaux, vol. VI. Presses polytechniques et universitaires romandes, CH-1015 Lausanne, 1996. Fondements du traitement des signaux. [5] DESMORAT, R. Cours d’acoustique physique. Ecole Normale Supérieure (ENS Paris- Saclay), Mai 2017. [6] Introduction au filtrage adaptatif. fmy, 2005. [7] GARNIER, H. Rappels sur la théorie de l’échantillonnagede l’analogique au numérique. Université de Lorraine, Polytech NANCY.hugues.garnier@univ-lorraine.fr. [8] HENRI, A. J. . L.Méthodes matricielles _ Introduction à la complexité algébrique. arXiv math, avril 2012, ch. 7. [9] HIRIART-URRUTY, J.-B. Topologie et analyse hilbertienne: Une introduction pragmatique. Notes de cours, Université Paul Sabatier de Toulouse. [10] MALLAT, S. Traitement du signal. Notes de cours, Ecole Normale Supérieure - DÉPARTEMENT DE MATHÉMATIQUES / ENSEIGNEMENT, 45 rue d’Ulm 75230 Paris Cedex 05 - Tél : 01 44 32 31 72 -education@math.ens.fr, 2015. 83 BIBLIOGRAPHIE [11] MAURICECHARBIT, G. B. Traitement du signal audio-numérique. ATIAM: Parcours multi-mentions du master Sciences et Technologies, Septembre 2012. Université Pierre et Marie Curie - Paris 6 en collaboration avec TELECOM ParisTech et l’IRCAM. [12] MULLER, J.-P. Le traitement numérique du signal audio.www.ponge.biz, Juille 2001. [13] PISKOUNOV, N.Calcul différentiel et intégral, editions mir ed., vol. II. Juin 1993. [14] P.JARDIN, J.-F. B. . Introduction au filtrage adaptatif. ESIEE Paris, 2003. [15] PONTON, L. Groupes, anneaux, corps et théorie de galois. Papiers personnels _ lionelponton.fr. [16] SINCÈRE, F. Filtrage numérique d’un signal d’évolution lente avec un microcontrôleur. IUT de Nancy-Brabois.http://perso.orange.fr/fabrice.sincere,Version 1.2.2. [17] SINCÈRE, F. Module d’electronique, troisième partie : Conversion de données. IUT de Nancy-Brabois. http://perso.orange.fr/fabrice.sincere,Version 3.0.1. [18] TERTRE, D.Conception avancée des circuits intégrés analogiques.convertisseurs a/n et n/a. Ecole nationale supérieure des Mines de Saint-Etienne, 2009.www.emse.fr/~dutertre/ enseignement.html. [19] WIKIPÉDIA. Processeur de signal numérique, 2021. 84 sur 84
Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences).
UNIVERSITE LIBRE DES PAYS DES GRANDS LACS ULPGL-GOMA B.P368GOMA /WWW.ULPGL.NET FACULTÉ DESSCIENCES ETTECHNOLOGIESAPPLIQUÉES Département de Génie Électrique et Informatique CONCEPTION D’UN FILTRE ANNULATEUR D’ECHO SONORE MIXTE Travail de fin de cycle présenté en vue de l’obtention du diplôme de Graduat en Sciences Appliquées. Présenté par :KRAME KADURHA DAVID Directeur : DI.Dr.Tech. ALAINAKWIR NKIEDIEL Encadreur : Ass2.Ing. DIEUDONNÉMUSONGYA BISIMWA Année académique2019−2020 DÉDICACES A Ma mère Charlotte, mon oncle Aciza et ma petite Joëlle dont respectivement le courage, l’humilité et l’innocence sont toujours une source d’inspiration. i REMERCIEMENTS En premier lieu, nous remercions Dieu pour nous avoir caché les choses tout en nous rendant capables de les trouver par nous mêmes. C’est à la fois un bonheur et un honneur. Nos remerciements particuliers à notre directeur, DI.Dr.Tech. Alain AKWIR NKIEDIEL, et notre encadreur, Ass2.Ing. Dieudonné MUSONGYA BISIMWA, pour le suivi humble, patient et attentif qu’ils nous ont accordé durant l’élaboration de ce document. Nous remercions aussi tous ceux dont l’existence contribue énormément à notre bien-être. Nous pensons particulièrement à notre mère BALIBUNO NZIGIRE Charlotte, Joëlle ANSIMA, Aciza CUBAKA, Daniel KADURHA, Emmanuella MUSIMWA, Florence CINAMA, Generose ABEKA, Alohn SHETEBO, Carine SHETEBO, Sr Catherine, Christian RUBONEKA, Bijoux NAMWESI et Bernardin BWIRABUCIZA. Nos remerciements les plus reconnaissants à Juvénal BALIBUNO, Marcellin BALIBUNO, Bakondjo MUHUBAO, Charles BISIMWA, Akonkwa BALIBUNO, Irène IRAGI, Georgette, Eka BIGABWA, Labii KADURHA, Déo KADURHA, Yvette BUBAKA, Ciza BUBAKA, Ludwine BALIBUNO ,etc. A nos chers grand-parents BALIBUNO Richard et François KADURHA dont respectivement la perspicacité et l’érudition ne cesseront de nous inspirer et de nous guider. Nous remercions enfin nos amis et camarades, pensant nommément à Wen KAMUNTU, Bruno KAMOLE, Patricia OLINABABO, Yvan KAHASHI, Naomi MASASI, Chrispin CIRHULWIRE, Divin KUBIYA, Patient KUBUYA, Pierre MABILI, Styve EBASOMBA, Jacques NDAVARO et tous les gens bienveillants. Recevez nos remerciements les plus sincères. KRAME KADURHADAVID iii RÉSUMÉ Ce travail consiste à concevoir un filtre numérique destiné à un système annulateur d’écho sonore. Pour y parvenir, on commence par passer en revu les notions générales de la théorie de traitement du signal directement utiles à cette fin. Après cela, une analyse détaillée des algorithmes élaborés pour l’identification des systèmes est réalisée pour finalement déboucher sur deux choses: l’étude des techniques permettant d’optimiser au maximum les algorithmes et le choix d’un algorithme particulièrement adapté aux systèmes annulateurs d’écho (on a choisi leBPNLMS++). Ici le système à identifier est le chemin d’écho. L’algorithme choisi et amélioré est écrit et testé sous Matlabpour en vérifier la validité (le test de validation est réalisé dans une situation où l’on sait déjà le résultat prévu par la théorie et on simule l’algorithme pour le valider ou l’invalider). La validation ayant réussi, le filtre est prêt à être implémenté comme tel sur une plateforme d’annulation d’écho. Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). Donc ces coefficients sont figés pendant le filtrage. Ainsi, on peut facilement, grâce à ce filtre, modéliser l’écho d’un signal en entrée, et le soustraire du signal global à transmettre comme réponse à l’émetteur, pour que ce dernier ne puisse pas recevoir une réplique du signal qu’il a émis (l’écho est ainsi supprimé). Le travail est effectivement clos par la validation de l’algorithme qui implémente le filtre adaptatif conçu, ainsi que par un essai d’annulation d’écho. v SIGLES ET ABRÉVIATIONS ADC: Analog to Digital Converter; BLMS: Block Least Mean Square; BNLMS: Block Normalized Least Mean Square; BPNLMS++: Block Proportionnate Normalized Least Mean Square amélioré; CAN: Convertisseur Analogique-Numérique; CNA: Convertisseur Numérique-Analogique; DAC: Digital to Analog Converter; DSP: Digital Signal Processing; FFT: Fast Fourier Transform; FNT: Fermat Number Transform; GF: Galois Field; GPS: Global Positionning System; LMS: Least Mean Square; NLMS: Normalized Least Mean Square; NNT: Natural Number Transform; PNLMS: Porportionnate Normalized Least Mean Square; PNLMS++: PNLMS amélioré; RLS: Recursive Least Square; SNR: Signal-to-Noise Ratio. vii Table des matières DÉDICACESi REMERCIEMENTSiii RÉSUMÉv SIGLES ET ABRÉVIATIONSvii INTRODUCTION GÉNÉRALE1 0.1Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 0.2Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.3Formulation des hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.4Objectifs du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.1Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.2Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.5Choix et intérêt du sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.6Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . . . .4 0.7Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL7 1.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 1.2Bases théoriques du traitement du signal . . . . . . . . . . . . . . . . . . . . . . .8 1.2.1Fondement de l’analyse des signaux[4] . . . . . . . . . . . . . . . . . . .8 1.2.2Signaux déterministes . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 ix TABLE DES MATIÈRES 1.2.3Signaux aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12 1.2.4Cas des signaux discrets . . . . . . . . . . . . . . . . . . . . . . . . . . .14 1.3Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.2Prélude au filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . .20 1.4Traitement du signal audio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 1.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON25 2.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 2.2Quelques algorithmes de filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . .26 2.2.1Algorithme du gradient déterministe . . . . . . . . . . . . . . . . . . . . .26 2.2.2Algorithme du gradient stochastique(LMS)[1] . . . . . . . . . . . . . . . .28 2.2.3Algorithme des Moindres Carrés Récursif [1]&[14] . . . . . . . . . . . . .28 2.2.4Algorithme LMS Normalisé (NLMS) [1]&[6] . . . . . . . . . . . . . . . .29 2.2.5Algorithme Proportionné Normalisé (PNLMS)[1] . . . . . . . . . . . . . .30 2.2.6Algorithme PNLMS++ [1] . . . . . . . . . . . . . . . . . . . . . . . . . .31 2.3Transformée en nombres entiers (NNT) [1] . . . . . . . . . . . . . . . . . . . . .32 2.3.1Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 2.3.2Transformation en nombres de Fermat et arithmétique binaire . . . . . . .33 2.3.3Version rapide de la FNT . . . . . . . . . . . . . . . . . . . . . . . . . . .35 2.3.4La convolution rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 2.3.5Multiplication optimale des matrices [8] . . . . . . . . . . . . . . . . . . .37 2.4Traitement par bloc des algorithmes d’annulation d’écho . . . . . . . . . . . . . .38 2.4.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38 2.4.2Algorithmes proprement-dits [1] . . . . . . . . . . . . . . . . . . . . . . .40 2.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .42 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ43 3.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 x sur 84 TABLE DES MATIÈRES 3.2Structure globale du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 3.2.1Filtre anti-repliement . . . . . . . . . . . . . . . . . . . . . . . . . . . . .44 3.2.2Convertisseurs Analogique-Numérique et Numérique-Analogique . . . . .46 3.2.3Filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.2.4Traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 3.3Élaboration de l’algorithme et présentation du système . . . . . . . . . . . . . . .50 3.3.1Élaboration de l’algorithme d’apprentissage . . . . . . . . . . . . . . . . .51 3.3.2Présentation du système réel . . . . . . . . . . . . . . . . . . . . . . . . .54 3.4Implémentation de l’algorithme et simulations . . . . . . . . . . . . . . . . . . . .55 3.4.1Traitement brut des données . . . . . . . . . . . . . . . . . . . . . . . . .55 3.4.2Traitement par bloc des données . . . . . . . . . . . . . . . . . . . . . . .57 3.4.3Essais comparés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .59 3.5Analyse des résultats et explication de l’implantation sur DSP . . . . . . . . . . .65 3.5.1Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65 3.5.2Explication de l’implantation sur DSP . . . . . . . . . . . . . . . . . . . .66 3.6Annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .66 3.7Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .68 CONCLUSION GÉNÉRALE69 ANNEXES73 .1Algorithme de traitement brut . . . . . . . . . . . . . . . . . . . . . . . . . . . .75 .2Algorithme de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . .78 xi sur 84 Liste des figures 1.1Visualisation d’un signal de parole sur une durée de 1/16 de seconde . . . . . . . .13 3.1Chaîne typique de traitements du signal . . . . . . . . . . . . . . . . . . . . . . .44 3.2Absence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.3Présence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.4Echantillonnage-Quantification-Codage[18] . . . . . . . . . . . . . . . . . . . . .47 3.5Positionnement du filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.6Processus complet de conversion N/A (signaux associés) . . . . . . . . . . . . . .48 3.7Signal d’entrée utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .56 3.8Valeurs des64coefficients du filtre . . . . . . . . . . . . . . . . . . . . . . . . . .57 3.9Les64coefficients du filtre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58 3.10 Les64coefficients du filtre 2 non formatés . . . . . . . . . . . . . . . . . . . . . .59 3.11 Coefficients du filtre 1 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.12 Coefficients du filtre 2 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.13 Coefficients du filtre 1 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.14 Coefficients du filtre 2 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.15 Coefficients du filtre 1 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.16 Coefficients du filtre 2 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.17 Coefficients du filtre 1 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.18 Coefficients du filtre 2 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.19 Coefficients du filtre 1 pour 4370 itérations . . . . . . . . . . . . . . . . . . . . .64 3.20 Coefficients du filtre 2 pour 400 itérations . . . . . . . . . . . . . . . . . . . . . .64 3.21 Démonstration de l’annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . .67 xiii INTRODUCTION GÉNÉRALE 0.1 Contexte La communication est un facteur clé dans l’émergence d’une société. Ce fait se démontre par le développement assez important survenant après que l’homme ait développé les méthodes de traitement, manipulation et interprétation des signaux. Il existe plusieurs types de signaux, mais nous nous focaliserons dans ce travail, sur les signaux sonores. L’onde sonore résulte d’une perturbation du milieu de propagation considéré. En effet, le milieu de propagation 1 est complètement connu si en chacun de ses points et à chaque instant on a la valeur de la vitesse, la pression et celle de la densité. Quantitativement, cela revient à définir les fonctions donnant ces grandeurs. Sous l’effet de la perturbation des dites grandeurs (avec l’approximation acoustique[5], ces perturbations sont très négligeables par rapport à la valeur au repos de la grandeur perturbée), on constate une variation qui respecte l’équation des ondes. Cela traduit le fait que le son est une onde, ce qui veut dire que son comportement est bel et bien analogue à tout type d’onde. De ce fait, il subira tous les traitements réservés aux grandeurs ondulatoires. Il peut donc subir la diffraction, la réfraction, l’interférence,... exactement comme tout type d’onde. On peut aussi en étudier le phénomène de réflexion et cela nous amène immédiatement à l’étude de l’écho lui associé, c’est ce qui va particulièrement nous préoccuper dans ce travail. L’écho acoustique en tant que phénomène physique, n’est en aucune manière problématique ni dérangeant. Il peut néanmoins s’avérer indésirable lors d’une communication par exemple. C’est ainsi qu’il est parfois impératif de trouver une solution à la nuisance apportée par des 1 Nous traiterons dans ce document, uniquement de la propagation du son dans les fluides et particulièrement dans les gaz; que nous supposerons évidemmentparfaits. 1 LISTE DES FIGURES échos acoustiques 2 non désirés. 0.2 Problématique Il arrive que, suite à un mauvais couplage du microphone avec le haut-parleur, nous puissions entendre notre voix résonner via l’ordinateur portable et les hauts-parleurs de la salle de réunion, via les écouteurs lors d’une vidéo-conférence, lors d’un appel téléphonique(surtout en mode mains libres)... Le phénomène peut ne pas durer assez longtemps mais il devient très vite gênant surtout quand il est perceptible. Toutefois, même quand l’écho n’est pas perceptible, il rend moins bonnes l’optimisation de la mémoire ainsi que la compression des données. La qualité du son lors d’une communication est très importante, surtout en application civile, et l’optimisation de l’espace de stockage en cas de besoin ne peut être que bénéfique. Cela fait à ce qu’il soit impérieux de focaliser notre recherche sur les moyens efficaces et rentables au point de vu économique, pour remédier au dit problème. De cette ambition naissent quelques questions auxquelles nous auront répondu à l’issu de ce travail, à savoir: 1. Le filtrage peut-il remédier complètement au problème de la présence indésirée d’écho sonore? 2. Un filtrage analogique peut-il suffire sans problème? 3. Sans mémorisation dynamique du signal, est-il possible de mieux annuler l’écho? 0.3 Formulation des hypothèses Nous estimons qu’un filtre résoudrait bel et bien le problème de la présence indésirée de l’écho acoustique dans les signaux sonores. Nous croyons également qu’un filtre purement analogique serait moins rentable pour réaliser de façon satisfaisante l’annulation de l’écho d’un signal sonore. 2 L’utilisation abusive du termeécho acoustiqueen lieu et place d’écho sonoren’est pas à considérer avec toute la rigueur 2 sur 84 0.4. OBJECTIFS DU TRAVAIL C’est pour cette raison que nous anticipons qu’un filtre mixte, allié à une mémorisation dynamique et optimisée du signal réaliserait amplement l’extraction du signal de base sans écho. 0.4 Objectifs du travail 0.4.1 Objectif général Notre travail consiste à concevoir un filtre annulateur d’écho acoustique. 0.4.2 Objectifs spécifiques Pour arriver à mettre conceptuellement sur pieds un filtre annulateur d’écho adapté, nous comptons: 1. Etudier la génération d’écho acoustique et circonscrire le problème; 2. Choisir l’approche adaptée pour modéliser la réponse d’une enceinte à l’onde sonore; 3. Évaluer la possibilité d’un traitement par filtrage adaptatif; 4. Etudier et adapter le filtrage numérique de l’écho; 5. Concevoir, étudier et tester les algorithmes d’annulation d’écho; 6. Proposer les éléments et paradigmes adaptés pour une perspective d’implantation du filtre. 0.5 Choix et intérêt du sujet Le filtrage des signaux est assez puissant pour résoudre tout problème consistant à séparer le signal utile d’avec le bruit. Nous avons donc songé à appliquer ce type de traitement au son juste en ce qui concerne l’annulation de l’écho, sans nous préoccuper des autres signaux indésirables qui brouilleraient le signal utile. La conception d’algorithmes de filtrage du son serait rendue plus efficace sur un grand nombre des points si le problème de l’écho se trouvait préalablement résolu. Ainsi, ce sont d’autres parasites qui seraient pris en compte et l’écho deviendrait secondaire. 3 sur 84 LISTE DES FIGURES Sur le plan social, il est évidemment important d’augmenter le confort lors d’une communication par exemple en annulant l’écho quand cela s’avère nécessaire mais également, d’optimiser l’utilisation d’un espace mémoire en cas de stockage des données. 0.6 Méthodologie de recherche et délimitation du travail Nous procéderons par analyse et expérimentation (notamment grâce au logicielMatlab) avec comme techniques, l’analyse du contenu et la documentation. Notre travail se focalise uniquement sur l’onde sonore, principalement sur le filtrage ainsi que l’annulation de l’écho généré 3 . Nous réaliserons donc le filtrage dudit signal dans un contexte plus général (indépendamment de l’enceinte, considérant juste la modélisation de la réponse de l’enceinte, ou du lieu en général, à l’onde sonore). Cela nous conduira à élaborer un filtre adapté avec optimisation des apports respectifs des parties numériques et analogiques. Il faut également noter que le milieu de propagation considéré dans le présent travail est le gaz parfait. Aussi, nonobstant le fait que certains résultats trouvés soient applicables pour tout type de fluide, nous ne les appliquons qu’au cas des gaz parfaits. 0.7 Subdivision du travail Excepté l’introduction et la conclusion générales, nous avons dans ce travail: • AuChapitre 1,Les généralités sur le traitement du signal, nous nous focalisons sur les aspects du traitement des signaux qui seront utiles à notre projet (particulièrement le traitement du signal audio). • AuChapitre 2,Etude théorique du filtrage du son, nous traitons particulièrement du filtrage de l’onde sonore en vu d’annuler un écho éventuel. Nous y parlons également des différentes 3 On ne traitera par exemple pas de l’écho électrique dû aux caractéristiques des éléments intervenant dans le traitement et la transmission du signal. 4 sur 84 0.7. SUBDIVISION DU TRAVAIL méthodes d’annulation d’écho et particulièrement des algorithmes existant. • AuChapitre 3,Conception d’un filtre mixte adapté, nous concevons, étape par étape, le filtre recherché en nous basant sur les algorithmes du chapitre précédent, tout en les complétant et en les améliorant en cas de besoin. Nous y donnons également des lumières utiles pour l’embarcation du système. 5 sur 84 Chapitre 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.1 Introduction partielle L’un des moyens permettant de se faciliter la tâche de manipulation du son, consiste à le voir comme une fonction mathématique (bien que non modélisable comme tel de manière rigoureuse). Ainsi on voit le son comme la variation d’une quantité (l’énergie de pression transmise par exemple) en fonction du temps. Cela nous permet de le traiter comme un signal parmi tant d’autres et ainsi avoir le droit d’y appliquer des résultats élaborés pour cet effet dans le cadre d’une discipline nommée traitement du signal. Le traitement du signal est en effet une discipline qui est axée sur le traitement, l’interprétation et l’analyse des signaux. Un signal peut être contrôlé, filtré, comprimé, transmis, débruité, déconvolué, identifié, classifié... C’est donc une discipline dont l’objet central d’étude est le signal (concept qui regroupe nombreux phénomènes bien particuliers comme le son, l’image,...). Dans ce premier chapitre, nous abordons particulièrement les notions de base du traitement des signaux tout en orientant notre exposé dans le sens du traitement du signal qui nous concerne. Tout converge vers un traitement particulièrement utile pour notre étude, le filtrage. Nous nous focalisons sur le traitement numérique du signal vu que c’est ce qui facilite la manipulation et l’élaboration des systèmes de traitement des signaux. C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL cas de la majorité des signaux sonores. 1.2 Bases théoriques du traitement du signal 1.2.1 Fondement de l’analyse des signaux[4] Un signals(t)peut être vu approximativement comme une combinaison linéaire des fonctions simples et connues formant la base d’un espace vectoriel à dimensionnqui est infini à la limite. Cela étant, on associera à chaque fonctionf i (t)constituant la base dudit espace vectoriel un coefficientα i . Ce qui donne: s(t) = n ∑ i=1 α i f i (t)(1.1) Cette représentation des signaux est très capitale car elle facilite l’analyse du signal ainsi représenté et permet d’aborder le traitement numérique du signal. En effet, le traitement numérique d’un signal ne peut être envisagé que s’il est discrétisé or, la manière donts(t)est écrit en 1.1 suggère qu’il peut se voir comme un vecteur dont les composantes sont lesα i , ce qui le rend en fait discret. Nous venons de former un espace vectoriel des fonctions, isomorphe àR n ou àC n selon que le signal est modélisé sous la forme réelle ou complexe. On remarque ques(t)peut être représenté par un vecteur dont les composantes changent en fonction de la famille desf i (t)choisie. Le choix de cette famille est également primordial car c’est de lui que dépend la facilité d’analyse du signal considéré. La représentation des signaux par des vecteurs est très féconde etpermet par exemple d’évaluer le degré de ressemblance des signauxgrâce à la notion de distance. Pour cela, on définit une norme ‖.‖sur l’espace des fonctions introduit tel que pour tout signals(t)on ait que: ‖s(t)‖ 2 = √ √ √ √ n ∑ i=1 (α i ) 2 (1.2) 8 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Par analogie on a que la norme de s(t) est sur une périodeτ: ‖s(t)‖ 2 = √ ∫ τ |s(t)| 2 dt(1.3) L’expression 1.3 signifie que les signaux doivent être à carré intégrable. Le sens physique est que les signaux doivent avoir une énergie finie. Ce qui précède est évident pour un signal réel et constitue une condition supplémentaire à imposer à l’espace des signaux. Soients(t) = (α 1 ,...,α n )etu(t) = (β,...,β n )deux signaux, la distance entre les deux signaux sera donnée par la distance usuelle découlant de la norme définie en 1.2. Soit que: d(s,u) =‖s−u‖ 2 (1.4) = √ √ √ √ n ∑ i=1 (α i −β i ) 2 (1.5) Notez que par analogie on peut également définir, en vertu de 1.3, la distance entre les signaux par: d(s(t),u(t)) = √ ∫ τ |s(t)−u(t)| 2 dt(1.6) La norme, telle que définie en 1.2, dérive 1 évidemment d’un produit scalaire[9]; ce produit est donné par: 〈s,u〉= n ∑ i=1 (α i .β ? i )(1.7) Avecβ ? i le complexe conjugué deβ i pour être plus général. Comme habituellement nous pouvons aussi définir ce produit pour les signaux non discrétisés sur une période de tempsτpar: 〈s(t),u(t)〉= ∫ τ (s(t).u ? (t))dt(1.8) Le produit scalaire de deux vecteurs est proportionnel à la projection de l’un sur l’autre. Il est 1 Car on a que‖s‖= √ 〈s,s〉 9 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL maximum, en valeur absolue, lorsque les deux vecteurs ont la même orientation et nul lorsqu’ils sont orthogonaux. Il peut donc être considéré comme une mesure de la similitude d’orientation des vecteurs. En d’autres termes, le rapprochement des signaux dans leur évolution (similitude des formes). L’espace vectoriel des fonctions ainsi défini et muni de ce produit scalaire qui y induit une norme estcomplet[9] et constitueun espace de Hilbert. La connaissance de cette structure est cruciale car elle permet de traiter tous les éléments de cet espace des signaux en utilisant juste les résultats connus sur les espaces de Hilbert. Ce qui vient d’être démontré justifie que les signaux soient développables en série des fonctions orthogonales et non liées. D’où la possibilité de les développer ensérie de Fourierou bien en considérant les autres familles des fonctions orthogonales selon les besoins et la commodité. Le développement en série de Fourier est en fait d’une importance capitale en théorie du signal. 1.2.2 Signaux déterministes Les signaux déterministes sont ceux représentables par une fonction analytique. Suite à ce qui vient d’être montré à la sous-section précédente, nous allons reconsidérer la transformée de Fourier dans cette partie et en aborder les aspects utiles à notre travail. La transformation de Fourier est vue comme une généralisation du développement en série des fonctions orthogonales de Fourier tel que présenté dans la partie qui précède. Le développement en série Fourier est donnée par [13]: s(t) = +∞ ∑ n=−∞ [S n .e j2πnft ](1.9) Cette équation constitue donc, à quelques changements de variable près, un cas particulier de 1.1. Avec les coefficientsS n donnés par: S n = 1 T . ∫ T 2 −T 2 s(t).e −j2πnft dt(1.10) 10 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Définition [4] Soits(t)un signal déterministe, sa transformée de FourierSest définie par: S(f) = ∫ +∞ −∞ s(t).e −j2πft dt(1.11) Avectla variabletempsetflafréquence. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. Ici nous comptons montrer qu’à une fonction quelconque correspondra unetransformée de Fourier 2 . Pour cela, considérons un signal quelconques(t)et ciblons-y une région simple dont on connait l’expression analytique. Supposons ensuite un signals 1 (t)qui serait une réplique à l’infini de la partie ciblée.s 1 (t)est par cela périodique de périodet f −t i avect f l’instant final de la partie ciblée ett i son instant initial. Suite à cette définition des 1 (t), il est évident qu’en prenantT(c’est-à-diret f −t i )infinie, cela revient à prendres(t). D’où: s(t) = lim T→+∞ s 1 (t)(1.13) Nous savons pourtant que le développement des 1 (t)en série de Fourier existe car elle est périodique. Il sera donné mutatus mutandi par les rélations 1.9 en prenant en compte 1.10. Par conséquent,la représentation fréquentielle des 1 (t)est un spectre des raies et la distance entre raies adjacentes vaut f 1 = 1 T étant donné que le développement en série de Fourier suggère que toutes les fréquences, 2 Évidemment, si ladite fonction est à carré sommable, c’est-à-dire si son carré a une intégrale finie. 11 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL dans le développement des 1 (t), sont multiples def 1 . La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. Cela prouve qu’il existe, sous certaines hypothèses(voir la note de bas de page précédente), une fonction fréquentielleS(f)exprimant le signals(t)dans le domaine des fréquences. C’est évidemment clair étant données les relations 1.11 et 1.12. Nous en déduisons que la transformée de Fourier représente, à la limite, la densité spectrale de raies telle que définie en 1.14. D’où l’intérêt de cette transformée, généralisant le développement en série de Fourier, grâce à l’extension aux fonctions non périodiques. 1.2.3 Signaux aléatoires Les signaux déterministes, sont, comme nous venons de le voir, des fonctions telles que, à chaque instant, on dispose d’une règle permettant d’en évaluer la valeur. Cette règle peut être spécifiée sous forme d’une expression mathématique,ou d’une équation récurrente ou tout autre procédé de construction. Les fonctions déterministes forment la base de l’analyse mathématique, mais la plupart de phénomènes que nous aurons à modéliser ne sont pas de cette nature. 12 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Figure 1.1: Visualisation d’un signal de parole sur une durée de 1/16 de seconde Considérons le signal de parole représenté à la figure 1.1. Il est clair, à la vue de ce graphe, que l’on ne peut réduire ces observations à une fonction déterministe du temps. Nous pourrions peut-être trouver une fonction déterministe qui approxime correctement les valeurs observées sur un intervalle de temps[0,T], mais cette fonction ne serait pas une approximation valable de l’observation à l’extérieur de cet intervalle, et cette propriété perdurerait indépendamment de la durée[0,T]de l’observation. Le graphe 1.1 contient un très grand nombre d’irrégularités et ces irrégularités ne semblent pas respecter une évolution prédictible. Les observations ont un caractère aléatoire, dans le sens où nous ne savons pas déterminer, pour un instant donné, quelle sera la valeur précise de la mesure. Par contre, il est envisageable d’indiquer un intervalle de valeurs possibles et éventuellement de préciser comment ces valeurs sont distribuées à partir d’une certaine loi de probabilité. La bonne façon de décrire le comportement du phénomène est donc de spécifier, à chaque instant, une distribution de probabilité, permettant de décrire la vraisemblance de chaque observation. Dans le langage des probabilités, la valeur observée sur le capteur à chaque instant est une variable aléatoire et son évolution au cours du temps, un processus aléatoire. Cet exemple est le prototype d’une large classe de phénomènes qui conduit à adopter, pour les modéliser, la prise en compte de l’indéterminisme.[11] 13 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Les signaux aléatoires sont donc en bref des signaux dont la valeur instantanée est imprévisible, ce qui implique qu’ils n’ont pas de représentation analytique. Ces signaux seront étudiés grâce à certains paramètres statistiques qui leur sont associés. C’est en fait ces types de signaux qui sont rencontrés dans notre contexte et nous en reparlerons de manière plus approfondie, mais implicite, dans les parties qui vont suivre. 1.2.4 Cas des signaux discrets Nous aborderons ici les signaux discrets de manière secondaire. C’est-à-dire, en les prenant comme le résultat de l’échantillonnaged’un signal continu, vu que c’est cet aspect qui nous intéressera dans le présent travail. Echantillonnage Echantillonner 3 un signal consiste à prélever, à intervalle de temps régulier le plus souvent, les valeurs prises par le signal. Cela permet ainsi de voir le signal comme une suite de nombres et en permet le traitement par un ordinateur ou tout autre système de traitement des données. C’est en fait le processus deconversion analogique-numérique. De manière formelle donc, si on prélève les valeurs du signal avec une périodeT e , on aura une suite des nombres valant{s(nT e )} n∈Z 4 qui constitue les échantillons du signal. Par ce fait même, on est amené à songer au problème de reconstitution du signal à partir de ses échantillons. Avant de considérer ce problème, définissons l’impulsion de Dirac qui nous sera très utile pour la suite du travail même si elle n’est pas physiquement réalisable de manière parfaite car elle est idéale. Impulsion de Dirac[10] :Un Diracδ(t)est par définitionune distributiondont le support (domaine non nul) est réduit au pointt= 0et d’intégrale valant 1. Formellement, il est défini par: ∫ +∞ −∞ δ(t)dt= 1(1.15) 3 C’est l’une de manières les plus simples de discrétiser un signal 4 De manière tout à fait générale, sans prendre en compte dans un premier temps la causalité (c’est-à-dire le fait selon lequel le temps doit uniquement être pris positif) 14 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Ce qui veut dire que cela correspond à un signal de durée nulle et de surface1. C’est en fait une limite définie pratiquement par [3]: δ(t) = lim T→0      1 T pour| t T |< 1 2 0pour| t T |> 1 2 (1.16) De cela on peut montrer que: ∫ +∞ −∞ s(t).δ(t)dt=s(0)(1.17) Commeδ(t−τ)représente une impulsion de Dirac localisée plutôt enτ, on aura que: ∫ +∞ −∞ s(t).δ(t−τ)dt=s(τ)(1.18) On remarque que cette manipulation permet de prélever des valeurs des(t)en des instantsτbien précis. Plus généralement, introduisons un opérateur complet d’échantillonnage nommépeigne de Dirac(plusieurs Dirac étendus sur toute la droite des réels et espacés chaque fois deτsecondes). Il sera donné par: c(t) = +∞ ∑ n=−∞ δ(t−nτ)(1.19) c(t)permet de réaliser complètement l’échantillonnage d’un signals(t)car avec lui on prélève à intervalle de temps régulierτ(période d’échantillonnage), la valeur correspondante du signal. En effet, le signal échantillonné est alors donné parla distribution: s e (t) = ∑ +∞ n=−∞ s(nT e )δ(t−nT e ) = ∑ +∞ n=−∞ s(t)δ(t−nT e ) =s(t) ∑ +∞ n=−∞ δ(t−nT e ) En bref, au vu du développement qui vient d’être fait, on a: s e (t) =s(nT e ) =s(nT e ).c(t) =s(t).c(t)(1.20) Echantillonner un signal revient donc juste à le multiplier par le peigne de Dirac. 15 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Condition d’échantillonnage correct:La reconstitution du signal à partir de ses échantillons n’est réalisable que sous certains critères dont lethéorème d’échantillonnageditthéorème de Nyquist-Shannon. Ce théorème donne une condition sur le support du spectre (donné par la transformée de Fourier) du signals(t)pour reconstituers(t)à partir de ses échantillonss(nT e ). Ce théorème est ainsi énoncé: Théorème 1 (Nyquist-Shannon)Soits(t)un signal dont la transformée de FourierS(ω) 5 est à support dans[− π T e , π T e ]. Alorss(t)peut être reconstruit en interpolant sur ses échantillons s(t) = +∞ ∑ n=−∞ s(nT e ).h T e (t−nT e )(1.21) Avec h T =sinc( πt T ) = sin πt T πt T (1.22) Le théorème nous donne une condition surωpour que la reconstitution du signal à partir de ses échantillons soit possible. Cette condition est en effet|ω| ≤ π T e ce qui veut dire que la fréquence devra vérifierf max ≤ f e 2 ⇒f e ≥2.f max . En bref, le théorème 1 nous dit quela reconstitution du signal à partir de ses échantillons n’est possible que si la fréquence d’échantillonnagef e est supérieure ou égale au double de la fréquence maximale du spectre associé au signal. Transformée de Fourier Pour un signal discrets(nT e ), la transformée de Fourier est définie par[10]: S d (f) = +∞ ∑ n=−∞ s(nT e ).e −i.2πf.n (1.23) C’est au fait la transformée de Fourier de sa représentation sous forme de distribution telle que donnée par 1.20. On sait pourtant qu’à un point de vu réel on n’a qu’un nombre finiNd’échantillons. Pour prendre cela en compte, on définit la transformée de Fourier pour le cas dessignaux finis. Elle 5 ωreprésentant la pulsation du signal, avecω= 2.π.f 16 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cet algorithme est largement utilisé par les processeurs spécialisés dans le traitement du signal. Transformée de Fourier Rapide:On parle souvent d’algorithme FFT. 6 C’est une méthode pour calculer la transformée de Fourier discrète d’un signal permettant de réduire le temps de calcul. Pour cela, on calcule la transformée sur une moitié de l’échantillon puis sur l’autre, réduisant ainsi la complexité de l’algorithme de recherche de la transformée. Plus précisément, cet algorithme réduit le nombre d’opérations nécessaires au calcul de latransformée de Fourier DiscrètedeN 2 avec la méthode ordinaire àNlog 2 Nopérations en utilisant la FFT.[3] Comme montré précédemment, c’est utilisé pour le cas de signaux discrets périodiques (signaux discrets finis périodisés comme va le montrer clairement l’explication de l’expression 1.30). Ici nous n’en donnons qu’une vue sommaire étant donné que dans la suite du travail nous en reparlerons de manière plus claire quoi qu’implicite (voir le point 2.3.3). 6 Fast Fourier Transform (FFT) 17 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.3 Filtrage 1.3.1 Introduction Introduisons juste une opération qui nous sera très utile dans la suite. Filtrer un signal c’est lui faire subir une transformation bien particulière impliquant l’extraction d’une partie qu’on juge utile. En effet, la fonction d’un filtre est de modifier le contenu fréquentiel du signal d’entrée en transmettant intégralement le spectre du signal d’entrée sur certaines gammes de fréquences, et en bloquant le signal d’entrée pour les autres fréquences. Approximons un filtre par un système linéaire, homogène, invariant et stable[10]. Au point de vu formel ,le passage d’un signal à travers un filtre implique à ce qu’on lui fasse subir l’action d’un opérateur linéaire, homogène, invariant et stable. De ce fait, considérons un filtre représenté par un opérateur linéaireL. Au vu de ce que nous suggère la définition de l’impulsion de Dirac, se référant plus précisément à l’expression 1.18, nous voyons que: s(t) = ∫ +∞ −∞ s(u).δ(u−t)du(1.26) En lui appliquant l’opérateurlinéaireL, ce qui équivaut à le faire passer à travers un filtre,sans ignorer queδ(t) =δ(−t), on trouve: L(s(t)) =L{ ∫ +∞ −∞ s(u).δ(t−u)du}= ∫ +∞ −∞ s(u).L{δ(t−u)}du(1.27) Etant donné queLest aussi homogène en temps, on a que, siL{δ(t)}=h(t)alorsL{δ(t−u)}= h(t−u). Nous voyons évidemment queh(t)représentela réponse du système considéré à une impulsion de Dirac 7 . C’est ainsi que 1.27 donne: L(s(t)) = ∫ +∞ −∞ s(u).h(t−u)du(1.28) 7 C’est-à-dire le signal observé à la sortie du système en ayant appliqué une impulsion de Dirac en entrée. 18 sur 84 1.3. FILTRAGE C’est la définition duproduit de convolutiondu signal par la réponse impulsionnelle du filtre. En bref, faire passer un signal à travers un filtre linéaire et homogène consiste à faire le produit de convolution du signal par la réponse du filtre à une impulsion. Soit dit en passant, le produit de convolution des(t)parh(t)est donné par: s(t)? h(t) = ∫ +∞ −∞ s(u).h(t−u)du= ∫ +∞ −∞ s(t−u).h(u)du(1.29) La convolution discrète est définie de façon analogue (c’est-à-dire en remplaçant les signaux continus par les correspondants échantillonnés et les intégrales par des sommations discrètes). Toutefois, pour le cas des signaux finis, on définit plutôtla convolution circulairecar l’application de la relation précédente comme telle impliquerait la prise en compte des échantillons précédant le début de l’échantillonnage (valeur négative du temps). Pour cela, on considère que l’échantillon observé se répète à l’infini (périodisation des données récoltées). Donc, siNest le nombre d’échantillons, on devra faire tous les calculs surZ N . D’où la définition[10] de la convolution circulaire 8 : En posant ̇n=n modulo Ncar nous travaillons dansZ N , s(nT e )~h(nT e ) = N−1 ∑ p=0 s( ̇pT e ).h[ ̇ ̂ (n−p).T e ](1.30) La définition du produit de convolution ainsi donnée nous permet de donner un complement fondamental au paragraphe 1.2.2. Nous constatons en fait que les exponentiellese i2πft sont des vecteurs propresdes opérateurs de convolution qui sont sans doute des opérateurs linéaire (Lselon notre notation). En effet, appelonsL(•)l’opérateur de convolution défini parL(•) =h(t)?•. Nous aurons, à la lumière de la définition donnée par l’expression 1.29 alliée à la définition de la transformée de Fourier donnée en 1.11: L(e i2πft ) = ∫ +∞ −∞ h(u).e i2πf(t−u) du= (e i2πft ).H(f)(1.31) AvecH(f)la transformée de Fourier de la réponse impulsionnelleh(t)du filtreL. On le nomme fonction de transfert du filtre L. En toute évidence, les exponentiellese i2πft sont les vecteurs 8 La seule qui soit utilisable en pratique car définie pour les signaux finis. 19 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL propres de l’opérateur linéaireLet les fonctions de transfert associées sont lesvaleurs propres correspondantes. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. D’où l’intérêt de la série de Fourier et par ricochet, la transformée de Fourier. 1.3.2 Prélude au filtrage adaptatif Nous ne traiterons pas du filtrage classique ni dans un cadre discret ni dans un cadre continu vu que ce ne sera vraiment pas utile. Nous parlerons néanmoins dufiltrage adaptatifdont les concepts nous seront d’une grande utilité dans le cadre du présent travail. Pour cela, introduisons d’abord un filtrage particulier qui permettra d’aborder le filtrage adaptatif. Filtrage de Wiener[6] Ce type de filtrage est conçu pour séparer le signal d’avec le bruit comme tout autre type de filtrage. C’est-à-dire, séparer deux signaux à caractéristiques statistiques différentes. Soients(nT e )le signal d’excitation que nous noterons justes(n)par commodité(comme pour tous les autres signaux échantillonnés considérés dans ce paragraphe),y(n)signal qu’on voudrait obtenir à la sortie du système (entaché de bruit normalement),e(n)le bruit inconnu,y w (n)le signal modélisé à l’aide des paramètres du filtre,ε(n)l’écart entrey(n)ety w (n). Considérant que le signal passe par un système linéaire et homogène, nous aurons à la sortie un signal obtenu par convolution discrète du signal d’entrée avec la réponse impulsionnelle du filtre constituant le système considéré. Il existe donc les coefficientsw k tel que: y w (n) = p−1 ∑ k=0 w k .s(n−k)(1.32) Ce filtre est à réponse impulsionnelle finie de longueurp. Notez que, bien que non mentionné, cette convolution est faite avec les mêmes considérations que celles mentionnées pour laconvolution circulairedonnée en 1.30 sauf qu’ici, nous faisons abstraction desmodulospour ne pas alourdir l’écriture. Le problème ici consiste à minimiser 20 sur 84 1.3. FILTRAGE l’erreur d’estimation approximativeε(n) 9 . Nous allons utiliser les notations matricielles pour être général(en ce qui concerne le nombre de coefficients du filtre en particulier). La relation 1.32 devient: y w (n) = p−1 ∑ k=0 w k .s(n−k) =W T .S(n) =S(n) T .W(1.33) AvecW= ( w 0 w 1 ···w p−1 ) T ; S(n) = ( s(n)s(n−1)···s(n−p+ 1) ) T et l’exposantTsur les vecteurs indique qu’on a fait la transposition. De là on tire: ε 2 (n) = [y(n)−S(n) T .W] 2 =y(n) 2 −2y(n)S(n) T W+W T S(n)S(n) T W(1.34) AppelonsΓ(W)la valeur moyenne des erreurs commises (avecμl’opérateur indiquant qu’on fait une moyenne). C’est elle qu’il nous faudra chercher à minimiser pour espérer trouver un filtre optimal. Au vu du développement précédent nous aurons: Γ(W) =μ{y(n) 2 }−μ{2y(n)S(n) T W}+μ{W T S(n)S(n) T W}(1.35) DérivonsΓ(W)par rapport àW(ce qui correspond plus précisément à la recherche du gradient), ça donne: d[Γ(W)] dW =−2μ{y(n)S(n) T }+ 2μ{S(n)S(n) T }.W(1.36) Notons queμ{y(n)S(n) T }=          1 N ∑ N−1 n=0 y(n).s(n) 1 N ∑ N−1 n=0 y(n).s(n−1) . . . 1 N ∑ N−1 n=0 y(n).s(n−p+ 1)          avecNle nombre d’échantillons (Idem pour les autres moyennes, sachant que la moyenne d’une 9 On ditapproximativecar la sortie voulue n’est connue qu’à travers un transducteur (qui introduit également un bruit de fond). On minimise plutôt le carré de cette erreur pour des raisons tout à fait pratiques et calculatoires[14]. 21 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL matrice consiste à faire l’opération pour tous ses termes). Rappelons que: •μ{y(n)S(n) T }est un vecteur de dimensionp(vu quey(n)est un simple scalaire à chaque fois),on le nommevecteur d’intercorrélationet nous le noteronsR sy . •μ{S(n)S(n) T }est une matricep×pnomméematrice d’autocorrélationet nous la noterons R ss . Par conséquent, comme le minimum se retrouve en annulant le gradient, de l’expression 1.36 on tire l’équation donnant les coefficientsw k lorsque la dérivée est nulle, donc le filtre optimalW opt . On a: R ss .W=R sy ⇒W opt =R −1 ss .R sy (1.37) C’est l’équation normaledite deWiener-Hopf. On remarque évidemment qu’implémenter ce système aura un certain nombre de lacunes dont par exemple le temps de calcul des matrices ainsi que l’espace mémoire nécessaire surtout pour l’inversion de la matriceR ss . Le problème le plus pertinent est quesi les signaux ne sont pas stationnaires, ce qui est pourtant plus fréquemment le cas pour les signaux réels,R ss etR sy évoluent au cours du temps. Cela veut dire qu’il faudra chaque fois résoudre à nouveau l’équation de Wiener-Hopf. Ce qui vient d’être montré justifie qu’il est impérieux de trouver un moyen efficace pour pouvoir résoudre récursivement et plus rapidement l’équation de Wiener-Hopf. Le filtrage adaptatif apporte une solution efficace à ce problème. 1.4 Traitement du signal audio Le traitement du signal audio est un domaine très vaste qu’on ne peut espérer aborder de manière exhaustive dans ce document. Premièrement, cela serait une perte d’énergie et deuxièmement c’est une entreprise utopique. Le son peut en fait subir divers traitements dont le filtrage. Nous nous intéressons juste au filtrage ayant pour finalité l’annulation d’un écho présent dans le fichier 22 sur 84 1.5. CONCLUSION PARTIELLE sonore. L’annulation d’écho est ardue si on l’étudie de manière détaillée, c’est-à-dire en voulant considérer tous les paramètres qui entrent en jeu. En effet, pour annuler l’écho, il faut connaître précisément le milieu de propagation du son qu’on veut débarrasser de la perturbation en question. Le problème est qu’en premier, une telle étude serait irréalisable car cela prendrait en compte un très grand nombre de paramètres. En second lieu, les paramètres varieraient continuellement dans le temps (considérer pour cela le fait que, dans une enceinte, le changement de positon de l’un des éléments a une influence significative sur le comportement de ladite enceinte par rapport au signal à considérer; par exemple, le déplacement du microphone modifie directement la réponse de l’enceinte au signal et change par là même les calculs à faire pour annuler au mieux l’écho,...) et cela rendrait juste l’entreprise irréaliste. Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Cela rendrait l’étude systématique réalisable en pratique. Au vu de ce dont nous avons parlé dans les sections précédentes, la solution est d’étudier la fonction de transfert associée à l’enceinte considérée et de recourir au filtrage adaptatif pour une prise en compte efficace de l’évolution temporelle du système. La stratégie d’annulation d’écho acoustique repose sur une estimation du canal acoustique de l’écho en identifiant la réponse impulsionnelle du bouclage acoustique qui est retranchée finalement du signal. Le filtrage étant adaptatif, les coefficient du filtre sont adaptés en fonction de l’erreur commise à chaque itération. La réponse impulsionnelle du filtre varie au cours du temps et dépend du signal en entrée, de la séquence d’apprentissage et de l’algorithme d’optimisation choisi[1]. 1.5 Conclusion partielle Dans ce premier chapitre, nous avons premièrement justifié le bien fondé de l’application de l’analyse de Fourier au traitement du signal tout en pointant les résultats intéressants de cette dernière discipline. Deuxièmement, nous avons montré de manière implicite à quel point le traitement numérique du 23 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL signal est fécond et intéressant. En effet, il facilite les manipulations à effectuer sur les signaux, en facilite l’étude théorique et surtout, est plus adaptable aux divers systèmes de traitement des données existant, tout en étant moins sensible aux caprices de la nature (insensibilité du signal, dès qu’il est numérisé, aux perturbations de l’appareillage). Nous y avons également traité du filtrage adaptatif. Pour cela, le concept a été illustré par le filtre de Wiener (filtre en général non utilisable pour le son car restreint aux signaux stationnaires), très crucial pour le développement du filtrage adaptatif proprement-dit qui est abordé dans le chapitre qui suit. 24 sur 84 Chapitre 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.1 Introduction partielle Le traitement du signal sonore doit être minutieusement réalisé car les effets d’un mauvais traitement sont facilement perceptibles. Un traitement particulier, le filtrage, avec comme objectif d’annuler l’écho éventuel du signal sonore, fait l’objet de ce chapitre. Nous avons principalement opté pour un traitement numérique du signal à cause des avantages que cela procure (allant de la facilité de traitement à la facilité de réplique des manipulations effectuées en passant par la grande disponibilité des concepts élaborés du domaine). C’est ainsi que nous présentons, en premier lieu, divers algorithmes de filtrage conçus principalement avec comme objectif d’aboutir à une possibilité d’annuler l’écho d’un signal sonore. En second lieu, nous abordons un type de transformation numérique particulier, la transformée en nombres de Fermat, qui constitue un substitut valable à la transformation de Fourier discrète dans des situations où il est impérieux de réduire la complexité de calcul des algorithmes élaborés. En troisième et dernier lieu, nous y présentons un paradigme très essentiel pour une réduction encore plus grande de la complexité des algorithmes élaborés pour le traitement des signaux. Il s’agit du traitement par bloc des séquences numériques. 25 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2 Quelques algorithmes de filtrage adaptatif Le filtrage adaptatif a été introduit à la fin du premier chapitre. En gros, ça consiste à réaliser le filtrage avec un filtre numérique qui change et s’adapte à l’enceinte selon un critère bien défini (un critère de minimisation du carré de l’erreur d’estimation par exemple). Pour cela nous avons parlé du filtre de Wiener qui, bien que n’étant utilisable qu’en cas des signaux stationnaires, nous permet d’aborder de manière claire et succincte le filtrage adaptatif. Ces algorithmes ont donc pour raison d’être l’approximation du filtre optimal de Wiener en cas des signaux non stationnaires. Il s’agit dufiltrage adaptatif proprement-dit. 2.2.1 Algorithme du gradient déterministe L’équation de Wiener-Hopf vue à la fin du précédent chapitre permet de retrouver le filtre optimal en résolvant un système depéquations àpinconnues. Cet algorithme permet de résoudre le système de manière itérative. Cela est fait en deux étapes: • Choix du vecteurW 0 (Winitial). • Obtention, à partir deW k , deW k+1 par incrémentation deW k dans la direction opposée au gradient de la fonction moyenne des erreursΓ(W)introduite en 1.35. Ainsi on aura[14]: W k+1 =W k − 1 2 λ∇[Γ(W)](2.1) Et pourtant on sait que, selon les notations adoptées, et suite à l’égalité 1.36 on a: −−→ gradΓ(W)≡∇[Γ(W)] = d[Γ(W)] dW =−2R sy + 2R ss W k (2.2) Par conséquent, l’algorithme du gradient déterministeest donné par[1]: W k+1 =W k +λ(R sy −R ss .W k )(2.3) 26 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF La stabilité de cet algorithme est contrôlée par lepas d’adaptationλ, elle dépend également de la matrice d’autocorrélation du vecteur d’entrée[1]. En effet, si on nommeE k l’écart entreW k etW opt aprèskitérations, on aura: E k =W k −W opt (2.4) or selon l’équation de Wiener-Hopf, R ss W opt =R sy (2.5) Et selon l’algorithme du gradient déterministe on aura: W k+1 =W k +λ.(R ss .W opt −R ss .W k )(2.6) =W k +λR ss .(W opt −W k )(2.7) =W k −λR ss .E k (2.8) De ce qui précède on tire que E k+1 =W k+1 −W opt =E k −λR ss .E k (2.9) Ce qui montre de manière évidente de quelle façon la convergence de l’algorithme dépend du pas d’adaptation et de la matrice d’autocorrélation du vecteur d’entrée. La convergence de l’algorithmeest assurée par la contrainte[14]: 0 λ 2 λ pro max (2.10) Avecλ pro représentant une quelconque valeur propre de la matrice d’autocorrélation du signal d’entrée etλ pro max la plus grande valeur propre de cette matrice. Notons que pour des faibles valeurs deλ(pas d’adaptation), le temps de convergence lui est inversement proportionnel. Le choix deλest trop délicat et sa fixité ne garantit pas une vitesse de convergence optimale de l’algorithme. Par conséquent, il est nécessaire d’y trouver une solution. 27 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2.2 Algorithme du gradient stochastique(LMS)[1] Cet algorithme dit des moindres carrés ou LMS (Least Mean Square) consiste à minimiser l’erreur quadratique moyenne. C’est-à-dire en considérant son gradient au lieu de celui de la moyenne des carrés des erreurs (que nous avons nomméΓ(W)). Cela résout approximativement le problème évoqué au paragraphe précédent pour l’algorithme du gradient déterministe, problème de faible vitesse de convergence pour des très faibles valeurs du pas d’adaptation. Au fait, c’est plus adapté en pratique car on a très rarement∇[Γ(W)]. Ainsi, comme∇[ε 2 (n)] =∇[ε 2 k ] = 2ε k . ∂ε k ∂W =−2.ε k .S k 1 , on aura l’algorithme LMS donné par: W k+1 =W k − 1 2 λ∇[ε 2 (n)] =W k +λS k ε k (2.11) L’adaptation qui assure la convergence en moyenne quadratique la plus rapide est donnée par 2 : λ opt = 2 p.σ 2 (s) (2.12) Avecσ 2 (s)lavariance du signal d’entrée. On remarque que la convergence de l’algorithme LMS dépend de la statistique du signal d’entrée. Pour les signaux non stationnaires, il est difficile de suivre les variations du signal d’entrée avec l’adaptation du filtre par l’algorithme LMS et cela donne une convergence lente. D’où l’algorithme des moindres carrés récursif. 2.2.3 Algorithme des Moindres Carrés Récursif [1]&[14] Cet algorithme, leRecursive Least SquaresRLS, permet de suivre les signaux non stationnaires tout en ayant une vitesse de convergence convenable. Ici, au lieu de minimiser un critère statistique établi sur l’erreur commise en estimant un signal, on minimise, à chaque itération la somme des carrés des erreurs commises depuis l’instant initial. Dans ce cas,Γ(W)serait donné par 1 S k représente le vecteurS(n)à lak ieme itération etε k l’erreur(c’est un scalaire)ε(n)après le même nombre d’itérations. 2 Avec l’hypothèse d’unbruit blancen entrée 28 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF Γ(W) = 1 k ∑ k n=0 ε 2 (n)mais vu que cela n’affecte pas le critère de minimisation, on prendra plutôt: Γ(W) = k ∑ n=0 ε 2 (n)(2.13) La réponseWdu filtre adaptatifest donc fonction des échantillons disponibles et non d’une moyenne statistique générale. Cela est très capital et constitue le noyau de cet algorithme. Par analogie avec le filtre de Wiener on aura les relations 3 : R ss k W k =R sy k (2.14) AvecR ss k = ∑ k n=0 S n .S T n etR sy k = ∑ k n=0 S n .y(n). La réponse impulsionnelle du filtre sera donc modifiée à chaque itération. Pour limiter le nombre des calculs, l’équation à utiliser, et qui constitue l’algorithme RLS, est la suivante: W k+1 =W k +R −1 ss k S k ε k (2.15) Et dans cette formule, le calcul deR −1 ss k se fait par: R −1 ss k = 1 δ [R −1 ss k−1 − R −1 ss k−1 .S T k .R −1 ss k−1 δ+S T k .R −1 ss k−1 .S k ](2.16) AvecR ss 0 = 1 δ .I p avecI p matrice unité de dimensionp×p,δ∈]0,1[etW 0 ≡vecteur nul de dimensionp. Cet algorithme converge plus vite que le LMS mais est plus difficile à mettre au point. Un palliatif à cette difficulté de mise en application est l’algorithme dit NLMS. 2.2.4 Algorithme LMS Normalisé (NLMS) [1]&[6] LeNormalized Least Mean Squaredit NLMS pallie à la complexité du RLS et, de manière directe et plus globale, à l’inadaptation du coefficient d’adaptation de l’algorithme LMS (Problème soulevé à la fin du paragraphe sur l’algorithme LMS). Cet algorithme consiste à normaliser le coefficient 3 C’est logique car les développements sontformellementidentiques 29 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON d’adaptationλdu LMS en prenant en compte l’énergie du signal d’entrée, ce qui réduit au minimum l’effet de l’influence de la variation de la puissance du signal. Cela rend la vitesse de convergence plus ou moins uniforme en passant d’une itération à l’autre. Donc on aura la même formule d’itération que celle donnée pour l’algorithme LMS par l’équation 2.11, à la différence près que le coefficient d’adaptation est ainsi normalisé: λ k = λ S T k .S k +β (2.17) Par conséquent, l’algorithme NLMS est donné par l’équation: W k+1 =W k + λ S T k .S k +β .S k ε k (2.18) βest un facteur permettant de suivre rapidement les variations de l’énergie dans le signal d’entrée. La convergence de cet algorithme est garantie siλ k ∈]0, 2 λ pro max [. L’intérêt de cet algorithme par rapport au LMS est qu’il est indépendant à la variance du signal d’entrée. Il faudra toutefois noter qu’ici aussi il y a dépendance de la convergence de l’algorithme à la statistique du signal d’entrée car la distribution des valeurs propres de la matrice d’autocorrélation du signal n’est pas modifiée. Pour les signaux stationnaires (lebruit blancpar exemple) ou non-stationnaires (signal deparole par exemple), le NLMS apporte une amélioration significative du taux de convergence suite à la normalisation. En ce qui concerne la mise en œuvre, cet algorithme est plus complexe que le LMS mais en pratique il fait partie des plus simples et plus efficaces algorithmes d’adaptation. 2.2.5 Algorithme Proportionné Normalisé (PNLMS)[1] Cet algorithme, le PNLMS, spécialement adapté à l’annulation d’écho, fait l’adaptation avec un taux de convergence variable. Il a plus d’opérations que le NLMS mais converge plus vite; il découle du NLMS en remplaçant leλ k par: λ k = λG k S T k .G k .S k +β (2.19) 30 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF AvecG k =diag[g k (0),···,g k (p−1)]qui est une matrice diagonale de typep×p. Et chaque fois,g k (n) = γ k (n) 1 p ∑ p−1 m=0 γ k (m) oùγ k (n) = max{ρν k ,|w k (n)|},n∈ {0,···,p−1}et ν k = max{δ,|w k (0)|,···,|w k (p−1)|}. Les termesρetδvalent respectivement 5 p et10 −2 . Donc l’algorithme PNLMS est donné par: W k+1 =W k + λG k S T k .G k .S k +β ·S k ε k (2.20) Néanmoins, sous certaines conditions dont ladispersivité de la réponse du filtre adaptatif, le PNLMS devient moins rapide que le NLMS. La solution à ce problème est la combinaison de ces deux algorithmes. D’où l’algorithme nomméPNLMS++. 2.2.6 Algorithme PNLMS++ [1] Cet algorithme est moins sensible aux variations de la réponses impulsionnelle du filtre. Il consiste à combiner les deux précédent comme suit: • Pour les itérations de numéro impair (kimpair), utilisation du PNLMS. • Pour les itérations paires, on utilise le NLMS. Puis en fin de compte on mélange les résultats pour retrouver le filtre optimal. L’algorithme ainsi défini est celui que nous utiliserons. Toutefois, il subira un certain nombre de modifications pour pouvoir devenir plus manipulable et plus optimal. Ces manipulations seront effectuées en faisant en sorte que les calculs puissent s’effectuer sur un processeur de traitement numérique des signaux sans oublier de prendre en compte le coût, la rapidité et la minimisation d’erreurs. Ainsi, nous devons chercher comment réaliser les opérations voulues en utilisant un processeur à virgule fixe, pour ne pas avoir à gérer les erreurs d’arrondissement introduites par une manipulation maladroite duprocesseur à virgule flottante, tout en réduisant le coût d’achat du matériel (le premier processeur étant moins cher que le second). Pour cela, une transformation tout à fait particulière nous sera utile; il faudra juste qu’elle ait les mêmes propriétés qu’une transformation de Fourier (surtout en ce qui concerne la convolution) et qu’elle rende les calculs 31 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON (le traitement) plus optimisé. On le réalise grâce à la transformation qui fait l’objet de la section qui suit. 2.3 Transformée en nombres entiers (NNT) [1] La transformée en nombres entiers a la même forme que la transformée de Fourier discrète mais la supplante en ce sens que la partie imaginaire n’existe plus dans cette nouvelle transformation. La racine primitive considérée dans cette dernière (l’exponentiel complexe) étant remplacée par la racineM ieme de l’unité dans le corps de Galois[2] 4 considéré. Soitαcette racine. Nous avons donc que 〈α M = 1〉 q (2.21) Avec〈·〉 q signifiant que le calcul est faitmodulo q, c’est-à-dire dans un corps de Galois d’ordreq. La formule précédente est celle qui sera chaque fois utilisée pour retrouver la racine primitiveαdès queMetqsont choisis. La transformée en nombres entiers de chaque termex n d’une séquence de longueurMest alors donnée par: X k =〈 M−1 ∑ n=0 x n α nk 〉 q (2.22) Si la longueur de la transforméeMet l’ordreqdu corps fini (sachant que tout corps fini est corps de Galois)[15]GF(q)sont premiers entre eux, il existe alors(M −1 ) 5 tel que〈M.M −1 ≡1〉 q (ceci signifie queM.M −1 est congru à1moduloq) et là l’inverse de la transformée existe siM|(q−1) (ça veut dire queMdiviseq−1), elle est donnée par: x n =〈M −1 M−1 ∑ k=0 X k α −nk 〉 q (2.23) La transformée en nombres entiers n’existe pas toujours; les conditions de son existence sont les suivantes: 4 Chaque fois le corps de Galois d’ordreqsera notéGF(q)selon la notation anglaise standard. 5 Des algorithmes de calcul rapide de l’inverse d’un nombre dans un corps fini existent et seront présentés dès que nécessaire. 32 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] • On doit avoir quepgcd(α,q) =pgcd(M,q) = 1ce qui implique que〈α M = 1〉 q (existence de la racine primitiveα). • Siqest premier, il faut nécessairement queM|(q−1). Sinonq= ∏ k i=0 p m i i etM|pgcd(p i −1,p j −1)∀(i,j)∈ {1,2,...} 2 . Aveci6=jetq= ∏ k i=0 p m i i représentant exactement la décomposition deqen facteurs premiers. • Il faut quepgcd((α i −1),q) = 1siiest un diviseur deM,∀i∈{1,2,...,M−1} 2.3.1 Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) De même que pour la transformée de Fourier discrète, la transformée en nombres entiers demanderait un ordre deM 2 multiplications etM(M−1)additions. L’opération la plus complexe ici est évidemment la multiplication par des puissances de la racine unitéα. De cela découle qu’il est impérieux de faire un choix judicieux de cette racine pour réduire la charge de calcul des processeurs à utiliser (il est ainsi plus malin de choisirαpuissance de 2 pour remplacer toutes les multiplications par des décalages de bit). Le choix de l’ordreqdu corps de Galois dans lequel on choisit de travailler est aussi important pour une programmation plus optimale. Il est plus avantageux de prendre un ordreqégal àun nombre de Fermat. C’est-à-dire un nombre de la forme2 b + 1avecbune puissance de 2 car cela rend l’algorithme très optimal. On parle de latransformation en nombres de Fermat. Il s’agit d’une transformée en nombres entiers dans un corps d’ordre égal à un nombre de Fermat (il faut noter en passant que, seuls les 5 premiers nombres de Fermat sont premiers). Ainsi on a queq= 2 2 t + 1avect∈N. Cette transformée est celle que nous utiliserons vu qu’elle rend nos algorithmes plus optimisés. 2.3.2 Transformation en nombres de Fermat et arithmétique binaire Nous devons analyser la transformation sous cet angle (sous l’angle de l’arithmétique binaire) car cela permet de rester dans notre contexte vu que nos calculs seront exécutés par un processeur numérique fonctionnant sous le même principe. Une FNT (Fermat Number Transform) de longueur quelconqueM= 2 t+1 a juste M 2 log 2 M 33 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON multiplications etMlog 2 Madditions. Nous voyons à quel point il est intéressant de travailler dans un corps de Galois ayant un ordreqégal à un nombre de FermatF t . Le terme générateurα étant aussi essentiel à la réduction de la complexité de calcul, le choix d’unαdifférent d’une racine primitive (contrairement aux indications du début) mais égal à une puissance de2est intéressant en arithmétique binaire pour réduire la charge de calcul en cas de multiplication. Les longueurs possibles sont alors données parM= 2 t+1−i et〈α= 2 2 i 〉 F t avec évidemment(i,t)∈N 2 tel que 06i < t.La longueur de séquence étant égale à une puissance de 2,〈M −1 =−2 2 t −1−(t−i) 〉 F t car en effet, 〈F t −1 = 2 2 t ≡−1〉 F t 〈2 2 t ·2 −(t−i+1) ≡−2 −(t−i+1) 〉 F t 〈M −1 = 2 −(t+1−i) ≡−2 2 t −1−(t−i) 〉 F t (2.24) D’où les formules de transformation seront données, à la lumière des relations 2.22 et 2.23, par: X k =〈 2 t+1−i −1 ∑ n=0 x n ·2 〈2 i nk〉 M 〉 F t x n =〈−2 2 t −1−(t−i) 2 t+1−i −1 ∑ k=0 X k ·2 〈−2 i nk〉 M 〉 F t (2.25) On peut doubler la longueur des séquences tout en conservant unαpuissance de2. Pour cela il suffit de poser quei=−1. Ainsi la racineαest solution de la relation de congruence〈α 2 = 2〉 F t . Donc, α 2 =〈2 = (−1)·2·(−1) =−2·(−1)〉 F t =〈−2·2 2 t = 2 2 t−1 (1−1−2·2 2 t−1 )〉 F t =〈(2 2 t−2 ) 2 ((2 2 t−1 ) 2 −2·2 2 t−1 + 1 2 )〉 F t =〈(2 2 t−2 (2 2 t−1 −1)) 2 〉 F t 34 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] Par conséquent,α≡ √ 2a un sens et existe dans le corps de GaloisGF(q)≡GF(F t )si et seulement sit≥2car du développement précédent on tire clairement que: 〈α≡ √ 2 = 2 2 t−2 ·(2 2 t−1 −1)〉 F t (2.26) Donc,( √ 2 n ) =    〈2 n 2 〉 F t pournpair 〈2 n−1 2 ·2 2 t−2 (2 2 t−1 −1)〉 F t sinon . Commecette transformation admet que la transformée du produit de convolution de deux séquences est égale au produit simple(terme à terme) des transformées des séquences convoluées, elle requiert Mlog 2 Mopérations simples (décalage de bit, additions) etaucune multiplication. Cela est génial vu que comparativement, la transformée de Fourier discrète requiert, hormis les opérations simples, un nombre de multiplications complexes de l’ordre de M 2 log 2 M 2 . 2.3.3 Version rapide de la FNT De même qu’il existe une version rapide de la transformée de Fourier (la FFT comme dit au premier chapitre), il en existe aussi une pour la transformée en nombres de Fermat. Le principe est le même etc’est la même chose du point de vu formel. Il consiste à diviser la séquence en 2 séquences plus petites, ce qui réduit la complexité des calculs. L’implantation de cet algorithme sur un processeur de calcul porte le nom d’implantation Butterfly. Une transformée en nombres de Fermat de dimensionM= 2 n avec0≤n≤b= 2 t peut être calculée en utilisant le principe de l’algorithme FFT de la manière suivante: 〈X k = M−1 ∑ n=0 x n α nk = M 2 −1 ∑ n=0 x 2n α 2nk + M 2 −1 ∑ n=0 x 2n+1 α (2n+1)k 〉 F t 〈X k = M 2 −1 ∑ n=0 x 2n α 2nk +α k M 2 −1 ∑ n=0 x 2n+1 α 2nk =G k +α k H k 〉 F t (2.27) Avec évidemmentG k etH k des vecteurs représentant respectivement les transformées en nombres de Fermat des séquences{x 2n } M 2 −1 n=0 et{x 2n+1 } M 2 −1 n=0 de longueur M 2 . Comme〈α M = 1〉 F t ⇒〈α k+ M 2 =−α k 〉 F t car〈α M = 1 = (−1) 2 = (α M 2 ) 2 〉 F t . 35 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON En fin de compte,    X k =G k +α k H k X k+ M 2 =G k −α k H k k∈[0, M 2 −1]⊂N. Ce découpage de la séquence en 2 parties égales peut être repété pour décomposer la transformée de longueurM= 2 b en{4,8,···, M 2 parties. Toute FNT peut ainsi être calculée grâce àlog 2 (2 b ) =b décompositions. Comme Mb 2 transformées de longueur de séquenceM= 2. Il faudra à chaque étape 2 opérations simples et une multiplication. D’où le total exigeraMlog 2 M additions et M 2 log 2 Mmultiplications pour réaliser une FNT. 2.3.4 La convolution rapide Le calcul de convolution de deux séquences deMéchantillons exige l’application de3transformées en nombre entiers de longueur2M, les séquences étant étendues par des zéros. Soit deux séquences de longueurMchacune donnée par{x(n)} M−1 n=0 et{h(n)} M−1 n=0 , la convolution de ces deux séquences par le principe de la convolution rapide consiste à procéder de la manière suivante: Algorithme 1 (Convolution rapide par NNT)• Formation de deux séquencesx 1 etx 2 à partir de la séquence{x(n)} M−1 n=0 par:                x 1 (n) =    x(n)0≤n < M 2 0 M 2 ≤n < M x 2 (n) =    0M≤n < M 2 x(n) M 2 ≤n < M • Définirh 1 eth 2 de manière identique. • Calculer les transformées en nombres de Fermat des séquences ainsi construites. SoientX 1 ,X 2 ,H 1 etH 2 les transformées correspondant respectivement aux séquences construites ci-haut. Ne pas oublier que: X(k) =〈X 1 (k) +X 2 (k)〉 F t et idem pourH(k)(2.28) • Former trois nouvelles séquences notées{U},{V}et{W}de la manière suivante: 36 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?]          U(k)=〈H(k)•X(k)〉 F t V(k)=〈H 1 (k)•X 1 (k)〉 F t W(k) =〈H 2 (k)•X 2 (k)〉 F t avec le•représentant une multiplication terme à terme des séquences. • Calculer les transformées inverses de ces dernières séquences. Elles seront notées:u(n), v(n)etw(n)respectivement. • Soity=x∗hle résultat de la convolution des séquencesxeth. On aura enfin que: y(n) =                v(n)pour0≤n < M 2 〈u(n)−w(n)〉 F t pour M 2 ≤n < M 〈u(n−M)−v(n−M)〉 F t pourM≤n < 3M 2 w(n)pour 3M 2 ≤n <2M A la différence du calcul de convolution usuel qui demande dans le pire des cas 3 transformées en nombres entiers de longueur2M, cet algorithme exige plutôt7transformées de longueurM et cela est plus avantageux en terme de minimisation du nombre d’opérations complexes (les multiplications). 2.3.5 Multiplication optimale des matrices [8] Le produit de deux matrices représente le plus souvent une charge de calcul assez importante. Une méthode qui a des performances nettement supérieures à celles de la méthode usuelle, surtout pour des matrices de grande dimension, existe et consiste à transformer la multiplication des matrices en un produit de convolution (convolution des séquences composées des coefficients des deux matrices). Ce dernier pouvant finalement être rapidement et facilement calculé grâce aux algorithmes de calcul rapide du produit de convolution dont celui présenté à la section précédente, après une FNT calculée suivant ce qui est montré à la section 2.3.3. Algorithme 2 (Multiplication rapide des matrices)SoientA(a ij )etB(b ij )deux matrices carrées de dimensionM. Leur produitC(c ij )peut s’écrire sous forme polynomialeR(x) =P(x)Q(x), les coefficients dePetQétant trouvés respectivement par: 37 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON    p i+jM =a ij q M(M−1−i+jM) =b ij Avec0≤i,j < Met tous les coefficients non définis égaux à0. Et par multiplication simple des polynômes ou par convolution 6 des séquences qui sont constituées respectivement par les coefficients dePetQon trouveR(x). Les coefficients du produit deAetB sont alors donnés par: c ij =r M 2 −M+i+jM 2 Une convolution faite après FNT tout en appliquant les méthodes rapides et optimales mentionnées dans les parties précédentes permet de réaliser le produit des matrices avec moins deM 3 opérations complexes (multiplications) comme c’est le cas pour une multiplication par la méthode classique. Cette manière de faire sera très utile pour la suite car, avec ce qui est introduit à la section suivante on se rend copte qu’on aura plus besoin de manipuler régulièrement des matrices et des produits de convolution. 2.4 Traitement par bloc des algorithmes d’annulation d’écho 2.4.1 Introduction L’annulation d’écho sera réalisée par un filtre adaptatif. Le filtre à utiliser se doit d’être le plus rapide (vitesse de convergence) et le moins complexe (complexité de calcul) possible. Le filtre PNLMS++tel que présenté précédemment est le candidat idéal à ces deux exigences. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences). Pour cela, l’adaptation sera effectuée plutôt chaque aprèsNtermes de la séquence considérée. Il faudra néanmoins noter que, bien que cette méthode est très avantageuse quant à la réduction 6 Une multiplication des polynômes est équivalente à un produit de convolution des séquences formées par les coefficients des dits polynômes rangés selon le degré croissant. 38 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO du nombre de multiplications, elle a le défaut d’accroître considérablement le nombre d’opérations simples (les additions et les décalages de bit). Pour palier à cet inconvénient et rendre les algorithmes encore plus efficaces, on applique une méthode dite dusliding généraliséqui permet d’éviter plus particulièrement certaines redondances dans les calculs, rendant ainsi les algorithmes plus optimisés (cela pourra être pris en compte lors de l’implantation des algorithmes et non au cours de cette présentation théorique). Prenant toujours référence à la section sur les filtres adaptatifs, nous devons définir certains concepts vu que les quantités qui étaient auparavant des scalaires à chaque adaptation deviennent alors des vecteurs. Etant donné que l’adaptation survient chaque aprèsNéléments de la séquence considérée, tous les blocs (sauf éventuellement le dernier) contiennentNtermes pris dans l’intervalle [kN,kN+N−1]aveckdésignant le numéro du bloc (de l’itération). Les termes de bloc sont donc les suivants: y k = ( y(kN)y(kN+ 1)···y(kN+N−1) ) T y w k = ( (y w (kN)y w (kN+ 1)···y w (kN+N−1) ) T ε k =y k −y w k = ( ε(kN)ε(kN+ 1)···ε(kN+N−1) ) T S k = ( s(kN)s(kN+ 1)···s(kN+N−1) ) T . La définition que nous venons de donner pourS k est plus valable si on se base sur une compréhension brute du concept des blocs. Néanmoins, une manière plus pratique de la définir est de poser qu’elle vaut :S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T , ainsi on prend également en compte la longueur du filtre (pour notre cas, le filtre est de longueurp). La sortie qui est obtenue par convolution du signal en entréeS(n)par la réponse impulsionnelle du filtre sera finalement écrite de manière globale sur le bloc comme suit: y w k =         s(kN)s(kN−1)···s(kN−p+ 1) s(kN+ 1)s(kN)···s(kN−p+ 2) . . . . . . . . . s(kN+N−1)s(kN+N−2)···s(kN+N−p)                 w k (0) w k (1) . . . w k (p−1)         =R k W k 39 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON AvecR k unematrice de Toeplitzde taillep×Netpla longueur du filtre comme mentionné au premier chapitre. Tout en considérant qu’un terme notéw k (n)correspond, à la lumière de la notation du premier chapitre, au coefficientw n du filtre à lak ieme itération. 2.4.2 Algorithmes proprement-dits [1] Pour le cas le plus simple,algorithme LMS par blocsnotéBLMS(Bloc Least Mean Squares), l’erreur quadratique calculée sur un bloc de données sera donnée par:ε T k ε k au lieu deε 2 (n) comme c’était le cas auparavant. Ce qui est évident vu que c’est une généralisation de la fonction élévation au carré. Sachant queS(j)répond à sa définition donnée à la fin du premier chapitre, les coefficients du filtre seront mis à jour grâce à: W k+1 =W k − 1 2 λ∇(ε T k ε k ) =W k − 1 2 λ ∂(ε T k ε k ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (ε(j)) 2 ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (y(j)−S(j) T W k ) 2 ) ∂W k =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN (y(j)−S(j) T W k )(S(j) T )} =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN S(j)ε(j)} =W k +λR T k ε k Et la formule ainsi obtenue peut être réécrite sous la forme d’une convolution car: R T k ε k = (k+1)N−1 ∑ j=kN S(j)ε(j)} ⇒(R T k ε k ) i = (k+1)N−1 ∑ j=kN ε(j)s(j−i) =ε(i)∗s(−i) 40 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO Avec0≤i≤(p−1)pour ne pas dépasser la longueur du filtre et∗le produit de convolution discrète. Les éléments du vecteur d’erreurε k de longueurN, lesε(kN+m)avec0≤m≤N−1peuvent également être exprimés sous forme d’une convolution car on sait que: ε(kN+m) =y(kN+m)−y w k (kN+m) =y(kN+m)− p−1 ∑ i=0 w k (i)s(kN+m−i) =y(kN+m)−w k (m)∗s k (m) Avecs k (m)désignant le terme numéromdans le bloc numérokdu signal d’entrée. Dans ce qui précède il faut remarquer que normalement la convolution a été arrêtée à la longueur du filtre (p). Les deux manipulations qui précèdent seront perpétuées partout où cela sera possible, pour transformer les expressions sous la forme de produit de convolution afin d’appliquer toutes les belles propriétés de la convolution discrète, en terme de réduction du temps de calcul principalement, par utilisation de la transformée rapide (en nombres de Fermat pour notre cas). Grâce au même raisonnement, nous pouvons obtenir les formules de mise à jour des coefficients du filtre pour tous les autres algorithmes. L’algorithme qui nous intéresse étant lePNLMS++, à cause de ses propriétés présentées au premier chapitre, la version par blocs (le BPNLMS++) sera donnée par: • Pour la partie paire (correspondant auBNLMS), W k+1 =W k + λ R ss (k) +β (ε k ∗S −k )(2.29) AvecR ss (k)la fonction d’autocorrélation du signal, soitS k ∗S −k . • Pour la partie impaire (correspondant auBPNLMS), W k+1 =W k + λG k G k R ss (k) +β (ε k ∗S −k )(2.30) AvecS −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T 41 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON Dans la mise en oeuvre pratique de ces algorithmes, tous les éléments seront adaptés de manière à avoir des formes correctes (par ajout des zéros aux vecteurs le nécessitant et suppression de l’erreur ainsi introduite, à la fin des calculs). REMARQUES: Il faudra impérativement noter que les formules ici mentionnées, qui de toute évidence correspondent respectivement au processus de mise à jour des coefficients du filtre dans le cadre duBNLMSet duBPNLMS, ne sont que formelles.En effet, au sens mathématique strict elles ne seront pas valables au vu des dimensions des termes (pour s’en convaincre, il faut noter qu’après formatage des résultats,R ss (k)est de taillep×1,on ne prend que sespderniers termes, donc on ne peut pas l’additionner àβqui est un scalaire mais aussiG k étant une matrice de taillep×p, on aura aussi queG k R ss (k)est de taillep×1et donc même conclusion).Cette notation formelle signifie juste que, pour chaque itération, on calculer le vecteur de taillepdu numérateur et l’autre du dénominateur et le termew k (i)correspondra au résultat obtenu en appliquant la formule mais ayant considéré uniquement les termes numéroide chaque vecteur présent (au numérateur et au dénominateur).Nous y revenons plus clairement lors de l’élaboration de l’algorithme. 2.5 Conclusion partielle Ce chapitre a abordé le processus de filtrage numérique de manière à converger vers un filtre bien adapté à l’annulation d’écho sonore. L’algorithme choisi et adapté pour cet effet est lePNLMS++ qui est comme une synthèse des avantages de divers algorithmes conçus pour la cause précisée. Néanmoins, envisager une implantation plus optimale sur les processeurs de traitement du signal, nous permet de remarquer l’utilité d’introduire la transformée en nombres de Fermat, qui permet de réduire la consommation en ressources qui serait inutilement énorme en cas d’un traitement numérique classique. Le traitement dans le domaine de Fermat, allié à une manipulation des séquences par bloc de données, permet de réduire de manière assez sensible la complexité de calcul des algorithmes mis au point. L’introduction de la transformation en nombres entiers, nous est d’une importance capitale car c’est sur base d’elle que seront écrits, en langage de programmation dédié, nos algorithmes, si on veut les embarquer. 42 sur 84 Chapitre 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ 3.1 Introduction partielle Ce chapitre vient clore notre travail. Nous envisageons y présenter sommairement les éléments qu’il serait normalement nécessaire de concevoir pour réaliser un système de traitement numérique complet du signal. Toutefois, étant donné que notre travail consiste juste à élaboré le filtre, nous nous limiterons, pour les autres blocs de traitement du signal, à la description du minimum nécessaire pour comprendre l’ensemble. Ça veut dire que nous ne concevrons pas les autres parties, sinon nous nous serons totalement écarté du cadre de ce travail. Nous allons considérer que le reste est un acquis à ajuster seulement à la partie concernant le traitement que nous allons élaborer et implémenter sousMatlab. 3.2 Structure globale du système Notre système fonctionne selon la procédure classique de traitement du signal. De ce fait, il sera constitué des blocs habituels. C’est ainsi que la structure globale du système est telle que représenté sur la figure qui suit: 43 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.1: Chaîne typique de traitements du signal On y remarque que minimalement, un système de traitement complet devra contenir des éléments qui réalisent ces5étapes. A l’arrivée du signal il sera d’abord adapté au système, d’où le filtre anti-repliement. Ensuite, comme le traitement est numérique, il sera converti sous forme binaire par le Convertisseur Analogique-Numérique. Par après il subira un traitement adéquat (le filtrage numérique pour notre cas), puis la reconversion sous forme analogique grâce au convertisseur Numérique-Analogique. Finalement, on terminera la mise en forme du signal en le lissant grâce au filtre de lissage. 3.2.1 Filtre anti-repliement Le filtre anti-repliement est nécessaire pour faire respecter le théorème de Shannon, il évite le repliement de spectre auquel on assiste normalement si la condition de Nyquist-Shannon est violée par sous-échantillonnage (c’est-à-dire si la fréquence d’échantillonnage est inférieure au double de la fréquence maximale du signal échantillonné). Ce phénomène est pourtant de règle et n’est en rien une exception vu que normalement, les signaux réels ne sont jamais, stricto sensu, à support fréquentiel borné. Donc, les spectres réels s’étendent toujours jusqu’à l’infini (l’amplitude du signal tendant bien sûr vers0sans jamais s’annuler). Par conséquent, la condition de Nyquist-Shannon ne peut jamais être strictement respectée pour un signal réel. D’où l’importance d’un filtre anti- repliement. Le filtre n’est en effet qu’un passe-bas permettant de limiter la fréquence maximale prise par le signal à traiter pour que nous soyons sûr de choisir une fréquence d’échantillonnage valable (valeur non infinie). 44 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.2: Absence de repliement[7] Figure 3.3: Présence de repliement[7] Il est donc indispensable d’intercaler un filtre anti-repliement avant le convertisseur permettant le passage de l’analogique au numérique. C’est un filtre analogique passe-bas de fréquence de coupureFe/2(dans l’idéal). En pratique, le filtre passe-bas parfait n’existe pas et le repliement du filtre numériquef > Fe 2 est partiellement éliminé. La qualité se paie par l’utilisation d’un filtre anti-repliement élaboré (ordre élevé).[16] Ce filtre passe-bas doit avoir les caractéristiques suivantes: [12] 45 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ - Fréquence de coupure égale àF max ; - Variations de gain minimales dans la bande passante ; - Pente la plus raide possible après la coupure (Ordre élevé); - Atténuation hors bande passante adaptée au nombre de bitsnde la numérisation. En effet, les signaux parasites au-delà deF max vont être atténués par le filtre anti-repliement et se retrouver dans la bande du signal. Pour que ces parasites repliés ne soient pas gênant, il suffit que leur niveau soit suffisamment faible c’est à dire d’un niveau inférieur à la résolution du convertisseur analogique-numérique. En conclusion, le filtre anti-repliement ne supprime pas le phénomène de repliement, mais atténue le signal replié au point de le rendre négligeable. 3.2.2 Convertisseurs Analogique-Numérique et Numérique-Analogique Depuis une trentaine d’années, le traitement numérique des données prend le pas sur les approches purement analogiques. Le recours au numérique permet en effet un stockage aisé de l’information, une excellente reproductibilité des traitements, la possibilité de développer relativement aisément des fonctionnalités complexes, une réduction des coûts de production, etc. L’interface nécessaire entre le monde analogique et un traitement numérique donné est réalisé par des convertisseurs analogique–numérique (CAN, ouADCpourAnalog to Digital Converteren anglais) et numérique–analogique (CNA, ouDACpourDigital to Analog Converter). Le rôle d’un CANest de convertir un signal analogique en un signal numérique pouvant être traité par une logique numérique, et le rôle d’unCNAest de reconvertir le signal numérique une fois traité en un signal analogique.[18] Pour réaliser laconversion analogique-numérique, trois opérations sont nécessaires. Il s’agit, par ordre d’apparition, de l’échantillonnage, de la quantification et du codage. L’échantillonnage du signal doit être fait en tâchant de respecter le théorème de Shannon.Le processus est clairement illustré grâce à la figure qui suit: 46 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.4: Echantillonnage-Quantification-Codage[18] On distingue deux grandes familles de CAN basées sur deux approches différentes du processus d’échantillonnage : lesCAN classiquesdont la fréquence d’échantillonnage est telle que le spectre du signal converti occupe quasiment toute la bande de Nyquist (Nyquist Rate ADC) et les CAN à sur-échantillonnage (Oversampling ADC) dont seule une partie réduite du bruit de quantification (erreur de quantification) affecte le signal converti.[18] Si la fréquence d’échantillonnage est bien choisie, la seule erreur introduite au cours du processus de numérisation résulte de l’approximation faite en codant un nombre infini de valeurs analogiques par un nombre fini2 n de niveaux binaires. Le numérique n’est donc évidemment pas parfait, seulement on peut, en augmentant le nombre de bitsn, diminuer autant qu’on veut l’erreur introduite par la numérisation. Avec , comme objectif, de maintenir l’erreur de quantification en dessous du seuil de sensibilité de l’oreille humaine. Plus le nombre de bits augmente, plus le rapport signal sur bruitSNRs’améliore.[12] Après cette transformation, les données se dirigent vers un processeur de traitement numérique. Un traitement fait en virgule fixe est de toute évidence la plus indiquée pour être plus optimal. Il doit être considéré en cas d’implantation des algorithmes sur DSP vu que les ressources sont limitées. Le convertisseur numérique-analogique permet de communiquer d’un système numérique vers un système analogique. Il convertit donc un nombre binaire en une tension (ou un courant) qui lui est proportionnel. L’entrée est numérique et se note formellementN= (b n−1 ...b 1 b 0 ) 2 avec lesb i ∈{0,1},Nl’entrée numérique etnla résolution numérique (nombre de bits). La sortie est analogique et dans un premier temps, la conversion analogique-numérique se fait simplement paru S =Nq+u S min avec u S la tension à la sortie du convertisseur etqlequantum ou résolution analogique(en Volts).[17] 47 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Par ce qui précède on aura de toute évidence une sortie discrète du fait que les conversions sont réalisées à chaque arrivée d’un échantillon. Pour pallier à cela, le CNA a un système permettant le maintient de la tensionu S en sa sortie, jusqu’à l’arrivée d’un nouvel échantillon. On obtient alors en sortie, unsignal analogique en escalier. Il a ainsi un spectre fréquentiel comportant des fréquences supérieures à la fréquence maximale du signal de base. Cela est dû aux changements brusques observées pour une forme en escaliers. Il est par conséquent important delisserce signal en supprimant les composantes de fréquence élevée pour obtenir finalement un signal à variations majoritairement moins brusques et/ou plus proche du signal analogique désiré. 3.2.3 Filtre de lissage C’est le dernier élément de la chaîne de traitement du signal. Comme dit dans la section précédente, il permet de lisser le signal en escalier qu’on obtient à la sortie du CNA. Le lissage se fait par suppression des fréquences supérieures à la fréquence maximale du signal d’entrée (moitié de la fréquence d’échantillonnage). Il s’agira donc d’un filtre passe-bas comme pour le premier élément de la chaîne (filtre anti-repliement). On en illustre l’importance grâce aux figures qui suivent [18] : Figure 3.5: Positionnement du filtre de lissage Figure 3.6: Processus complet de conversion N/A (signaux associés) 48 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME 3.2.4 Traitement Une fois les données numérisées, elles sont finalement traitées. Le traitement se passe dans un processeur de traitement numérique. Il existe une multitude de processeurs, et également un grand nombre d’architectures utilisées. Néanmoins, certains processeurs sont optimisés pour le traitement du signal. Il s’agit desDSP(Digital Signal Procesing) dont on a sommairement parlé dans les parties précédentes. LeDSPest un microprocesseur optimisé pour exécuter des applications de traitement numérique du signal (filtrage, extraction des signaux, etc.) le plus rapidement possible. Ils sont utilisés dans la plupart des applications du traitement numérique du signal en temps réel. On les retrouve ainsi dans les modems, les téléphones mobiles, les appareils multimédia, les récepteurs GPS, les chaînes de traitement de son,... En bref, partout où l’on reçoit un signal complexe que l’on doit modifier à l’aide du filtrage. UnDSPfournit des instructions usuelles comme la multiplication, l’addition, la soustraction, etc. Mais son jeu d’instructions est élaboré de manière à exécuter des opérations très courantes dans des algorithmes de traitement du signal les plus usuels. Des nombreux algorithmes de traitement du signal ont par exemple besoin d’effectuer rapidement des multiplications suivies d’une addition. LesDSPaccélèrent ces genres de calcul en fournissant des instructions capables de multiplier deux nombres et d’en additionner un troisième en une seule fois (en un cycle d’horloge). CertainsDSParrivent même à réaliser plusieurs opérations complexes de ce genre en un seul cycle d’horloge. La majorité desDSPcalculent exclusivement avec des nombres à virgule fixe. L’absence d’unité en nombre flottant rend le composant meilleur marché tout en permettant une grande vitesse de traitement des données. CertainsDSPpossèdent cependant des unités de calcul en virgule flottante pour des applications exigeant une large dynamique des valeurs ou une grande précision relative des résultats. Ils peuvent être combinés avec d’autres composants dans le même boîtier. C’est ainsi par exemple qu’on a, dans un même, leDSPet les convertisseurs (Convertisseur Analogique- NumériqueetNumérique-Analogique).Dans un appareil équipé d’un DSP, la vitesse d’exécution des calculs dans ce dernier est généralement la partie déterminante de la vitesse d’exécution du travail effectué par la machine.[19] 49 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Au vu de ce que nous venons de montrer dans le paragraphe précédent, leDSPest la solution indiquée pour un système embarqué complet. Pour notre cas, sachant que nos ordinateurs sont équipés des processeurs assez rapides qui arrivent à réaliser le traitement des données avec une vitesse suffisante pour que nous testions de fonctionnement réel de notre système, nous réaliserons dans un premier tempsnotre système en nous servant de l’ordinateur. Les caractéristiques utiles de ce dernier sont précisées dans la section traitant de l’élaboration de l’algorithme. Il s’avère alors indubitable que, comme le traitement que nous mettons au point est un filtrage, avec comme objectif l’annulation d’écho sonore, cette partie (le traitement) suffit pour tirer des conclusions pertinentes sur le système et pour envisager (projet à long terme selon la demande ou le besoin) finalement une production du matériel conçu selon ce travail. Donc, le filtre anti- repliement et autres éléments de la chaîne de traitement du signal ne seront pas conçus par nous mais nous nous servirons de ceux de la carte son de l’ordinateur (pour le test du fonctionnement) et ceux qui seraient couplés au boîtier du DSP (en cas de production matérielle). 3.3 Élaboration de l’algorithme et présentation du système Nous allons réaliser l’annulation d’écho par utilisation de l’algorithmeBPNLMS++, les coefficients seront donc réinitialisés selon le principe illustré par les formules 2.29 et 2.30 AvecS k etS −k définis respectivement par S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T et S −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T . Les deux sont tous de longueurN+p−1prenant directement en compte la longueurpdu filtre ainsi que la tailleNdes blocs d’échantillons. Ce qui précède nous fait immédiatement remarquer que les deux vecteurs ont les mêmes termes mais arrangés en ordre inverse. Mathématiquement, ça correspond à dire queS −k s’obtient en multipliantS k par une matrice carrée de dimensions adéquates et dont tous les termes sont nuls sauf la diagonale secondaire qui sera totalement constituée des1. 50 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 3.3.1 Élaboration de l’algorithme d’apprentissage Soit à utiliser un processeur à16bits, ce qui correspond au dernier nombre premier de Fermat, le cinquième pour être exact. En effet, si nous choisissonsb= 16, ça veut dire que dans la forme canonique des nombres de Fermat introduits à la sous-section 2.3.1 nous avons quet= 4, soit donc que le nombre de Fermat en question est2 2 4 + 1 = 2 16 + 1 = 65537 =F 4 . Ce choix est judicieux vu que nous comptons faciliter les calculs par transformée en nombres de Fermat (FNT), car là on a bel et bien un nombre de Fermat valable (un nombre premier en l’occurrence et en plus le plus grand nombre premier de Fermat connu). Aussi, étant donné ce que nous avons considéré à la sous-section 2.3.2, entre autres les définitions selon lesquellesM= 2 t+1−i et〈α= 2 2 i 〉 F t , en choisissant par exemplei=−2on obtient une longueur de transformationM= 128et〈α= 4 √ 2〉 F 4 = 4938. Voulant conserver le fait selon lequel on ne peut pas transformer une séquence de longueur supérieure à la longueurMde la transformée, nous devons faire remarquer que vu queS k etS −k sont de longueurN+p−1, on doit impérativement respecter la conditionM≥N+p−1ou alors prendre N+p−1< Mpour le compléter ensuite jusqu’à la longueurM. Alors, pour choix on peut prendre par exempleN= 64etp= 64(deux moitiés deM). Sur base de cela, nous aurons les étapes de l’algorithme : 1°)Acquisition et préparation du signal à manipuler; 2°)Écriture des fonctions qui réalisent la FNT et son inverse Après extraction du signal, nous pourrons être amenés à effectuer une transformée en nombres de Fermat sur le vecteur constitué des échantillons. Pour cela, nous devons réaliser ce qui suit: 1. Fonction réalisant la transformée de la séquence de longueur fixéeM; 2. Fonction réalisant la transformée inverse d’une séquence de longueur identique; 3°)Écriture d’une boucle devant réaliser l’apprentissage (adaptation du filtre) : 1. Fenêtrage d’un bloc de64échantillons du signal d’entrée; 51 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ 2. Construction globale du signal d’entrée à considérerS k en faisant précéder les64 échantillons dep−1derniers échantillons provenant du signalS k−1 ; 3. Vu qu’ainsi on aS k de longueurM= 128termes en le complétant, calcul de sa FNT par appel de la procédure correspondante; 4. Initialisation des coefficients du filtre (comme notre filtre est de longueurp= 64, nous prendrons pour filtre initial, un filtre dont tous les64termes sont tous nuls); 5. Complément des coefficients du filtre par des 0 par ajout deM−ptermes nuls pour obtenir un vecteur pouvant subir une FNT de longueurM; 6. Calcul de la FNT du vecteur ainsi formé par appel de la procédure correspondante; 7. Calcul du produit terme à terme de ces deux FNT précédemment obtenus (Transformée deW k complété multipliée par la transformée deS k ; 8. Calcul de la FNT inverse du produit obtenu par appel de la procédure dédiée (cela donne le produit de convolution des coefficients du filtre par le signal d’entrée. Donc on obtienty w k dont seuls lesNderniers termes correspondent auxNvrais échantillons formanty w k ; 9. Formatage dey w k par élimination desM−Npremiers termes inutiles. Pour cela, on multiplie une matrice de tailleN×Mdont lesM−Npremiers termes de chaque ligne sont tous nuls et l’autre partie est semblable à une matrice unitaire de tailleN(c’est-à- dire que tous ses termes diagonaux sont égaux à1) par le vecteury w k obtenu après la transformation inverse de l’étape précédente ; on obtient après cette multiplication, une matriceN×1qui correspond effectivement au vrai vecteury w k recherché; 10. Calcul du vecteur d’erreur par comparaison (une différence) de la valeur trouvéey w k avec la valeur désiréey k ; 11. Complément de ce vecteur par des 0 jusqu’à obtenir un vecteur de longueurMcar c’est bien cela la longueur de la transformée que nous avons choisi d’utiliser (on aura ajouté alorsM−Ntermes nuls); 12. Calcul de la FNT du vecteur d’erreur ainsi complété; 52 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 13. Construction du vecteur imageS −k en multipliant le vecteurS k déjà bien formaté et complété par une matrice de tailleM(matrice carrée donc) dont tous les termes sont nuls à part ceux de la diagonale secondaire qui sont tous égaux à1. La multiplication de cette dernière matrice parS k a donc pour effet de renverser l’ordre de ses termes; 14. Calcul de la FNT de ce vecteur image; 15. Calcul du produit terme à terme de ce vecteur image transformé avec le vecteur d’erreur transformé; 16. Calcul de la transformée inverse du résultat ainsi obtenu (la réponse correspond au vecteurε k ∗S −k dont seuls lespderniers termes forment le vrai vecteur recherché; 17. Formatage du résultat obtenu en lui appliquant une matrice que nous nommonsE, de dimensionp×Mpour obtenir au final un vecteur de taillep. Pour cela on multiplie la matrice construiteEpar le résultat obtenu à l’étape précédente. Cette matrice en est en fait une dont lesM−ppremiers termes de chaque ligne sont nuls et l’autre partie est comme une matrice carré de taillep×pdont les termes de la diagonale principale sont tous égaux à1et les autres sont tous nuls (matrice unitaire de taillep); 18. Calcul du produit terme à terme du vecteur d’entréeS k transformé avec son vecteur imageS −k aussi transformé; 19. Calcul de la transformée inverse du précédent produit (cela nous permet d’obtenir la fonction d’autocorrélation du signal d’entréeR ss (k) =S k ∗S −k qui est aussi réduit à sespderniers termes en lui appliquant la matriceEcomme cela a été fait à l’étape17; 20. Construction de la matrice diagonaleG k de taillep×ptel qu’elle fut définie à la sous- section 2.2.5; 21. Calcul des vecteursG k .(ε k ∗S −k )etG k .R ss (k); 22. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBNLMS(tout en tenant compte de la dernière remarque de sur l’état formel des formules duBNLMSet duBPNLMS). On appliquera donc précisément 53 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ W k+1 (i) =W k (i) + λ [R ss (k)](i)+β [(ε k ∗S −k )](i) ; 23. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBPNLMSen tenant également compte du fait que la formule s’exprime réellement par : W k+1 (i) =W k (i) + λ [G k R ss (k)](i)+β [G k (ε k ∗S −k )](i) ; 24. Construction du vrai vecteur des coefficients du filtre en prenant tous les termes impairs égaux aux termes impaires correspondants du vecteur trouvé à l’étape précédente et les termes pairs aux termes pairs correspondant du vecteur trouvé à l’étape22(ainsi on vient de réinitialiser le filtre en appliquant leBPNLMS++); 25. Relance de la boucle jusqu’au nombre d’itérations voulu. 4°)Fin de la boucle, renvoi des valeurs figées des coefficients du filtre en les formatant si nécessaire 3.3.2 Présentation du système réel Après cette étape d’apprentissage, on obtiendra les coefficients du filtre qui modélisent au mieux la réponse impulsionnelle de l’enceinte considérée. Ainsi, comme mentionné à la sous-section 1.3.1, le signal d’écho obtenu dans l’enceinte considérée peut bel et bien aussi s’obtenir,dans les mêmes conditions, par convolution du signal d’entrée avec le vecteur formé des coefficients du filtre ainsi construit. Cette solution est cruciale et déterminante pour l’efficacité et la rapidité 1 des systèmes de communication. En effet, annuler directement l’écho grâce à un modèle numérique équivalent à l’enceinte utilisée, nous permet : • De ne pas avoir à empêcher un locuteur de parler lorsque l’autre parle; 1 Sans ignorer les autres avantage d’un système d’annulation d’écho tout court. 54 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS • De simuler l’écho venant de n’importe quelle source (sélectionner un signal en particulier dont on veut extraire l’écho) pour ensuite le soustraire du signal qu’on compte transmettre. Ce qui serait carrément impossible sans cette modélisation de la réponse de la salle. Le système se résume donc ainsi : Deux interlocuteurs ayant chacun un combiné de communication, équipés chacun d’un système d’annulation d’écho, sont dans deux enceintes différentes (et dans la même enceinte à la limite ; mais c’est sans intérêt). On procède premièrement à une phase d’apprentissage où, un son de quelques secondes est émis par le haut-parleur des combinés de chaque locuteur et le filtre de chaque combiné est mis à jour. Ensuite s’établit la communication entre les deux interlocuteurs où, chaque fois que l’une des sources émet un signal, on en soustrait la modélisation de l’écho du signal venant de l’autre. Ainsi, aucun des deux ne peut réentendre sa voix à travers son haut-parleur. Cela résout le problème d’écho acoustique associé au système de communication considéré. Dans la suite (pour les essais) nous n’allons considérer qu’un interlocuteur.Pour cela, le signal venant de l’autre sera juste appelésignal lointainet celui qui vient du locuteur présent dans la salle d’expérimentation sera ditsignal local. Cela nous permettra de réaliser l’adaptation du filtre et de vérifier si le filtre obtenu modélise bel et bien l’enceinte prototype. 3.4 Implémentation de l’algorithme et simulations Dans cette section, nous allons écrire l’algorithme élaboré dans la section précédente en langage Matlab (qui a évidemment une syntaxe proche duCet qui nous permettra aumoins de réaliser des expérimentations de manière moins complexe). Utilisant un processeur à virgule flottante (celui de l’ordinateur), nous n’allons pas nous cramponner sur le formatage du signal d’entrée. Par conséquent, la transformation de Fourier va suffire pour avoir un aperçu de l’algorithme global. 3.4.1 Traitement brut des données Ce traitement revient à réaliser l’adaptation des coefficients du filtre à la manière dont la théorie a été élaborée au début du second chapitre. Donc sans optimiser le temps de calcul avec un traitement 55 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ par blocs. Nous allons donc réaliser un algorithme d’adaptation évoluant échantillon par échantillon et non par blocs. Ceci est utile pour remarquer la précision de ce traitement malgré le manque de robustesse et la charge de calcul. L’algorithme élaboré pour cet effet est ,sousMatlab, donné par l’annexe .1 . La compilation de ce code a duré12.424632secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour un signal d’entrée pris enregistré sur40secondes(voir la ligne12de ce code) pour pouvoir pousser très loin l’adaptation (jusqu’à20850tours de boucle principaux comme on le voit à la ligne43de ce code). Le signal d’entrée était: Figure 3.7: Signal d’entrée utilisé Pouri= 20850tours de boucles (voir la ligne43du code), nous avons obtenu les coefficients du filtre représentés en fonction des numéros d’échantillons par: 56 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.8: Valeurs des64coefficients du filtre Sous cette forme, on a remarqué que la convergence du filtre est relativement lente bien que le résultat soit plus parfait. On va le montrer clairement dans les sections suivantes. 3.4.2 Traitement par bloc des données L’algorithme utilisé et qui suit les étapes décrites précédemment (à la section 3.3.1 qui concerne l’élaboration de l’algorithme conseillé pour un implantation sur DSP) est donné à l’annexe .2 . Il est très important de signaler que bien que les étapes décrites lors de l’élaboration textuelle de l’algorithme soient faites pour le cas d’un traitement par FNT etpour un processeur à virgule fixe fonctionnant sous16bits, le fait que nous ayons utilisé un processeur sous64bitset la transformée de Fourier est tout à fait admissible. L’algorithme textuel a juste été élaboré pour considérer le cas le plus général et pour nous guider dans l’implémentation, surtout que cela permet également d’optimiser à la fois les coûts et l’exploitation des ressources. On remarque des simplifications drastiques en ce qui concerne le formatage des vecteurs. C’est ainsi qu’à la ligne73de ce code (annexe .2 ), on remarque qu’au lieu de multiplier le vecteur à128 57 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ termes par une matrice particulièreE(comme nous le suggère le point3en son étape17de la sous- section 3.3.1 sur les étapes de l’algorithme),Matlabnous permet d’extraire très simplement ces derniers termes. C’est le cas également aux lignes62et77(annexe .2 toujours) où les manipulations sont grandement simplifiées par rapport à ce que nous proposions au préalable. Ces propositions ont tout de même le mérite d’être plus générales comme méthode et donc utilisables même quand le langage ne permet pas une manipulation très simple des matrices. La compilation de ce code a duré8.219884secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour le même signal d’entrée que précédemment (voir la ligne 12de ce code et la figure 3.7) pour pouvoir pousser très loin l’adaptation. Ainsi on a obtenu en fonction des numéros d’échantillons le filtre suivant: Figure 3.9: Les64coefficients du filtre 2 Le filtre obtenu ici par contre est moins précis mais s’obtient plus vite à cause de la grande vitesse de convergence des algorithmes de traitement par bloc. Normalement, suite aux manipulations des vecteurs, on obtient unfiltre renversé et décalécomme on le voit sur cette figure: 58 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.10: Les64coefficients du filtre 2 non formatés De cela on obtient très aisément la courbe recherchée trouvée à la figure 3.9 grâce au formatage des coefficients, réalisé avec le bout de code de la ligne112(annexe .2 ) donné par: w=((ones(1,64)) * (mean(w))-(w))/(mean(w)); Pour réaliser ce formatage, il suffit de détecter la valeur moyenne (on écritmean(w)). Pour notre signal d’entrée, le filtre non formaté avait pour moyenne(13.5)(voir la figure 3.10). 3.4.3 Essais comparés Essayons, pour le même signal d’entrée (figure 3.7), de trouver les coefficients du filtre pour les deux cas en considérant différentes valeurs dei(nombre d’itérations qu’on voit aux lignes43des codes qu’on a aux annexes .1 et .2 ) et observons l’évolution des coefficients. Nous prendrons des valeurs inférieures à20850car pour une boucle allant trop au delà, nous risquons de dépasser la longueur maximale des vecteurs. Notons que le signal d’entrée formaté sous forme vectorielle était de taille1764352échantillons. 1°) Pouri= 10000on obtient: 59 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.11: Coefficients du filtre 1 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement échantillon par échantillon (ce qui a duré6.073958secondes). On a pratiquement le bon filtre. Figure 3.12: Coefficients du filtre 2 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré3.920202secondes, presque la moitié du temps nécessaire au traitement brut précédent). C’est pratiquement les mêmes coefficients que ceux obtenus pour le cas où le nombre d’itérations était20850. 2°) Pouri= 1000on obtient: 60 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.13: Coefficients du filtre 1 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement échantillon par échantillon (a duré0.658588secondes). Malgré que la forme est bonne, les coefficients sont très faibles. Figure 3.14: Coefficients du filtre 2 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement par blocs d’échantillons (pour un temps de calcul de0.426955secondes). Malgré un léger décalage vers le haut, on a obtenu pratiquement le filtre final. 3°) Pouri= 100on obtient: 61 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.15: Coefficients du filtre 1 pour 100 itérations Coefficients, obtenus aprèsi= 100itérations par l’algorithme de traitement échantillon par échantillon (durée de compilation de0.079877secondes). Malgré que la forme commence déjà à se dessiner, les coefficients sont très faibles (c’est un filtre à coefficients quasi nuls). Figure 3.16: Coefficients du filtre 2 pour 100 itérations Coefficients du filtre, obtenus aprèsi= 100itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré0.057885secondes). La forme commence déjà à se dessiner mais les coefficients sont encore trop décalés vers le haut. 4°) Pouri= 10on obtient: 62 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.17: Coefficients du filtre 1 pour 10 itérations Au début de l’adaptation du filtre , les coefficients sont très mauvais. Cette figure représente l’adaptation du filtre échantillon par échantillon après10itérations. Figure 3.18: Coefficients du filtre 2 pour 10 itérations Au début de l’adaptation du filtre, les coefficients sont très mauvais. Pour10itérations, avec le traitement par blocs, on n’a toujours pas même l’esquisse des valeurs souhaitées. 4°) Il y a également deux valeurs particulières pour les deux implémentations, les valeurs dei auxquels les filtres auront presque complètement atteint les coefficients escomptés. Après plusieurs essais on obtient: •i= 4370pour le filtre en traitement brut (filtre 1) 63 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.19: Coefficients du filtre 1 pour 4370 itérations L’algorithme de traitement échantillon par échantillon donne des très bons coefficients mais après beaucoup d’itérations (i= 4370) et trop de temps (3.296686secondespour notre cas). •i= 400pour celui du traitement par blocs (filtre 2) Figure 3.20: Coefficients du filtre 2 pour 400 itérations L’algorithme de traitement par bloc permet d’obtenir après seulement0.173829secondes, des coefficients très proches des bonnes valeurs (bien que n’étant pas très affinés, ils 64 sur 84 3.5. ANALYSE DES RÉSULTATS ET EXPLICATION DE L’IMPLANTATION SUR DSP sont assez bons pour que le passage du signal à travers un filtre ayant des telles valeurs nous donne presqu’exactement la sortie souhaitée). 3.5 Analyse des résultats et explication de l’implantation sur DSP 3.5.1 Analyse des résultats Ce que nous venons d’obtenir à la sous-section 3.4.3 est très crucial pour remarquer la puissance du traitement par blocs. On remarque très bien que le filtre élaboré par un traitement échantillon par échantillon n’évolue pas très vite vers les vraies valeurs, et se dégrade très vite avec la réduction du nombre d’itérations, tandis que le traitement par blocs est à la fois rapide (en terme de temps de calcul) et converge plus vite vers le filtre optimal. Dans le code , à la ligne61pour le premier (annexe .1 ) et64(annexe .2 ) pour le second, on a spécifié que le résultat attendu à la sortie du filtre devait être, pour tester le fonctionnement de notre algorithme, le même signal mis à l’entrée (donc l’erreur est minimisée de manière à ce que le signal d’entrée soit le même que celui obtenu après avoir traversé le filtre). Or nous savons très bien que pour avoir une sortie identique à l’entrée, la réponse impulsionnelle du filtre doit être une impulsion toujours. Et évidemment, le filtre optimal que nous avons obtenu s’approche d’une impulsion comme on le voit très bien aux figures 3.8 et 3.9.Le premier est évidemment plus proche d’une impulsion que le second bien qu’obtenu grâce à un algorithme moins robuste. En effet, le premier algorithme, qui nous permet d’obtenir des meilleurs coefficients, converge très lentement et se dégrade très vite quand on diminue le nombre d’itérations; en plus il prend trop de temps pour donner les résultats. Pour s’en convaincre, voir les figures 3.11 puis 3.13 ensuite 3.15 et finalement 3.17, on remarque très bien dans peu de temps que l’amplitude des coefficients du filtre se dégrade très vite et que les coefficients eux aussi deviennent de plus en plus écartés des bonnes valeurs jusqu’à la dégradation complète à la dernière figure, la figure 3.17). Le second, celui obtenu grâce à l’algorithme de traitement par blocs et dont l’évolution des coefficients est représentée en ordre par les figures 3.12 puis 3.14 ensuite 3.16 et finalement 3.18, est moins précis mais nettement plus robuste que le premier. En effet, il demande peu de temps de calcul et se dégrade très lentement 65 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ quand on diminue le nombre d’itérations.Malheureusement, il nécessite d’importantes corrections d’erreurs. En bref, la comparaison des résultats représentés par les figures 3.19 et 3.20 nous montre nettement la supériorité du traitement par blocs par rapport au traitement échantillon par échantillon. On remarque très clairement la nécessité d’une implantation par blocs pour avoir un traitement en temps réel (voir les commentaires afférentes aux deux figures précédentes). 3.5.2 Explication de l’implantation sur DSP L’implantation sur DSP à virgule fixe et sous16bitsexige l’adaptation de l’algorithme élaboré (celui de l’annexe .2 ) de manière à ce qu’on puisse réaliser le même traitement. Pour cela, on n’a que deux choses particulières à réaliser: • Formater le signal d’entrée de manière à l’adapter au processeur si nécessaire et • Ecrire une fonction qui réalise la transformée en nombres de Fermat tel qu’on l’a décrite et opltimisé dans les parties précédentes ainsi que son inverse. En utilisant juste les formules données. Après avoir réalisé cela, le code sera exactement le même que celui qui a été élaboré pour le traitement par blocs en se basant sur l’esquisse qui a été faite de l’algorithme au point 3.3.1. Le formatage quant à lui, quand il est nécessaire, se réalise facilement par des manipulations simples (multiplications suivies des arrondissements). Cette dernière méthode introduit évidemment une erreur mais dès qu’on envisage de l’utiliser, on peutétudier la technique adaptée pour la réduction de l’erreur qui serait introduite à la fois par ce formatage et celui réalisé durant le filtrage. Après avoir ainsi adapté l’algorithme, il faudra alors l’écrire enassembleurpour adapter le code à l’architecture du DSP choisi ou carrément en langageC, laissant au compilateur le soin d’optimiser le code en l’adaptant au DSP (C’est la solution la plus simple en fait). 3.6 Annulation d’écho Notre travail a consisté principalement à élaborer le filtre qui peut s’utiliser pour annuler l’écho dans un système de communication. Nous allons montrer la meilleure annulation que nous avons pu 66 sur 84 3.6. ANNULATION D’ÉCHO obtenir avec les filtres conçus. Il s’agit de l’annulation grâce au filtre implémenté par l’algorithme en annexe .1 qui est le plus précis (l’autre est le plus indiqué en cas d’embarquement mais nécessite d’astucieuses corrections d’erreurs). Les coefficients de ce filtre sont donnés par la figure 3.8, il correspond presqu’exactement à une impulsion. On obtient d’abord la sortie et l’annulation par le codeMatlabsuivant 2 : 1-sortie=conv(w,myrecordings); 2-echoTransmis=(sortie(1:1608500))-(myrecordings(1:1608500)); Ce bout de code a été exécuté à part, mais après l’exécution de celui d’adaptation pour pouvoir utiliser les mêmes variables. Il réalise en sa première ligne, la convolution du vecteur formé par les coefficients du filtre avec le signal d’entrée (c’est le filtrage si on pose que le filtre est approximativement linéaire). A la deuxième ligne on réalise alors la suppression d’écho pour le cas où le signal n’est pas trop modifié par l’enceinte (comme nous l’avons posé pour tester la validité de nos codes). On a considéré1608500échantillons pour ne pas risquer de dépasser la taille totale des vecteurs car le signal en entrée avait environs1700000échantillons. Dans cette figure (a) Echo résiduel après filtrage. (b) Echo sans filtrage. Figure 3.21: Démonstration de l’annulation d’écho (la figure 3.21), nous comparons l’écho reçu après filtrage du signal à envoyer à l’interlocuteur lointain, avec l’écho qu’il recevrait si le filtage n’était pas préalablement réalisé. Plus précisément, 2 Se référer à l’annexe .1 pour remarquer quemyrecordingreprésente le signal en entrée 67 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ on réalise un filtrage pour modéliser l’écho, puis on le soustrait du signal à transmettre pour que l’interlocuteur lointain ne perçoive pas sa voix dans le signal qu’il recevra. Ainsi, en observant très bien les échelles des axes de ces figures, on remarque une atténuation très importante de l’écho. En effet, l’écho qui persiste après filtrage (voir la figure 3.21a) est environ ledixièmede celui qui est perçu lorsqu’aucun filtrage n’est réalisé 3.21b. Et on y voit très bien que pour ce dernier cas (absence de filtrage) l’interlocuteur lointain va entendre exactement son signal lui revenir. D’où la nécessité du filtrage. 3.7 Conclusion partielle Dans cette dernière partie, nous avons tout d’abord décrit les éléments principaux nécessaires à l’élaboration d’un système annulateur d’écho sans prendre en compte le fait qu’il peut être incorporé à un système déjà mis en place. C’est ainsi que nous avons vu en passant la chaîne de traitement du signal et finalement nous nous sommes focalisé sur la partie concernant le traitement proprement-dit par filtrage. Cela nous a conduit à élaborer l’algorithme d’adaptation des coefficients du filtre de manière détaillée sousMatlaben vu d’en évaluer le fonctionnement et l’adéquation aux résultats attendus. Et bien évidemment, nous nous attendions à un filtre semblable à une impulsion et nous l’avions obtenu de très près comme le prévoit la théorie. Nous avons finalement terminé par une illustration de l’annulation d’écho et une explication de l’implantation de l’algorithme sur DSP en système indépendant. 68 sur 84 CONCLUSION GÉNÉRALE Au début de ce travail, nous pensions devoir considérer en profondeur les phénomènes physiques sous-jacents à la propagation des ondes sonores. Au cours des recherches, nous nous sommes rendu bien compte qu’il était plus rapide et rentable de modéliser juste l’ensemble, pour pouvoir mener à bien le travail à un coût dérisoire. Il est en effet plus optimal de traiter les phénomènes complexes, comme les phénomènes de propagation du son en dehors des conditions de laboratoire, de manière approximative mais globale au lieu de les voir en détail. Comme cela a bien été souligné, l’approche détaillée est utopique vu que le coût de calcul est immensément énorme. En introduction, nous avons posé comme hypothèse, que le filtrage est une solution à la présence indésirée d’écho dans un système de communication, et ce travail vient évidemment de nous conforter dans cette affirmation. Nous avons également supposé qu’un filtrage purement analogique serait moins rentable mais nous nous sommes rendu compte au fil du travail que, cette proposition doit être bien nuancée. En effet, durant ce travail, nous avons montré que nous ne pouvons, si nous considérons le système dans son ensemble (et non seulement la partie qui concerne le traitement algorithmique), nous passer d’une partie de traitement analogique du signal (penser au filtre anti- repliement par exemple). Néanmoins, en nous basant uniquement sur le filtrage du signal reçu, sans trop nous fier au formatage et à la correction du rapport signal sur bruit, nous pouvons sans doute nous fier uniquement à un traitement purement numérique. Finalement, au vu du processus mis en œuvre pour l’adaptation du filtre annulateur d’écho, nous confirmons la troisième hypothèse lancée en introduction et affirmant qu’on ne peut se passer d’une mémorisation dynamique du signal durant une partie du traitement pour pouvoir mener à bien l’annulation de l’écho sonore lié au système de communication. 69 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Ce travail a pointé du doigt la puissance de la théorie mathématique de traitement du signal. C’est ainsi qu’il a pu déboucher sur le filtrage numérique et en premier lieu sur le filtrage de Wiener qui est évidemment un prélude inévitable pour aborder le filtrage adaptatif. Le filtrage adaptatif car, comme cela a été plusieurs fois mentionné, c’est le moyen par excellence pour pouvoir modéliser un système non stationnaire comme c’est le cas pour les systèmes sonores. Notre travail a donc consisté à élaborer un filtre numérique modélisant l’enceinte dans laquelle le son va se propager, de telle sorte qu’il ne puisse pas y avoir une grande différence entre le son perçu à la sortie du filtre et celui qui serait perçu après avoir parcouru la salle. Cela revient donc à modéliser le chemin d’écho. Pour cela, les coefficients du filtre élaboré doivent correspondre à la réponse impulsionnelle de l’enceinte (à l’endroit où l’on se tient pour la mesurer). Toutefois, les signaux sonores étant très instationnaires, il est impérieux d’adapter ces coefficients au fur et à mesure de la réception du signal. D’où la nécessité des filtres adaptatifs comme on l’a tantôt montré. Nous avons développé les algorithmes du filtrage adaptatif en nous focalisant sur les plus indiqués pour l’identification des système (le chemin d’écho pour notre cas). Cela nous a conduit à considérer un algorithme nomméPNLMS++qui est très indiqué dans des tels systèmes pour sa grande vitesse de convergence et sa robustesse. L’objectif visé est qu’en cas de besoin, les théories abordées dans ce travail puissent être exploitées directement pour élaborer des systèmes devant équiper des appareils de communication habituels pour l’annulation d’échos sonores éventuels. C’est pour cette raison qu’il nous a semblé très important de montrer de quelle manière on pourrait réduire toujours plus fortement la charge de calcul des processeurs numériques à utiliser ainsi que le coût (d’un point de vu pécuniaire) de l’ensemble. De toute évidence, les processeurs à virgule fixe sont les plus adaptés à l’élaboration des plate-formes à faible prix tout en gardant une efficacité admissible quand ils sont programmés en conséquence. Ils allient en fait la rentabilité financière à la précision en ce qui concerne notre projet. Ce qui précède justifie le choix d’un traitement tout à fait particulier des données pour les rendre adaptées le plus fortement possible aux processeurs à virgule fixe (il s’agit du traitement par transformation en nombres de Fermat en lieu et place de la transformation de Fourier). Cette nouvelle transformation a toutes les propriétés nécessaires pour développer et optimiser la majorité des processus d’annulation d’écho dès qu’on décide de les implanter sur un processeur à virgule fixe. 70 sur 84 3.7. CONCLUSION PARTIELLE Au préalable, nous prévoyions réaliser les algorithmes en langage C mais nous étant rendu compte du fait que cela serait sans intérêt( en première approximation), nous avons choisi de développer le système sous Matlab sachant que si on envisageait une implantation sur DSP, l’adaptation du code serait simple étant donné la similarité des syntaxes de ces deux langages. C’est sous cet angle que nous avons mis au point sous Matlab un algorithme complet d’adaptation des coefficient du filtre destiné à l’annulateur d’écho. Aux futurs chercheurs, nous suggérons l’étude complète de l’incorporation des algorithmes ici conçus, aux systèmes de communication complets ainsi que, la correction des erreurs introduites dans le filtre obtenu en cas de traitement par blocs, pour améliorer encore plus l’atténuation de l’écho par cette méthode vu que ce dernier traitement est le mieux adapté au fonctionnement en temps réel. 71 sur 84 ANNEXES 73 .1. ALGORITHME DE TRAITEMENT BRUT .1 Algorithme de traitement brut 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -yk=ones(1,64); 27 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 28 -b=100; 75 sur 84 29 -D=(1/64); 30 -rho=0.01; 31 -mu=0.8; 32 -%Initialisation des W pour NLMS puis PNLMS. 33 -w1=(ones(1,64))’; 34 -w2=(ones(1,64))’; 35 -%Initialisation des vecteurs utiles au calcul de Gk. 36 -gam=zeros(1,64); 37 -gk=zeros(1,64); 38 -%Initialisation des vecteurs d’erreur et de W. 39 -err=(1:64000); 40 -w=zeros(1:64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Récupération du vecteur d’entrée à chaque étape i 45 - sign=(myrecordings((64+(i-1)):-1:(1+(i-1))))’; 46 - 47 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 48 - Vk=max([D,abs(w)]); 49 - %Calcul du vecteur Gk 50 - for k=1:64 51 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 52 - end 53 - for M=1:64 54 - gk(M)=((gam(M))/(mean(gam))); 55 - end 56 - Gk=1 * diag(gk); 57 - %Calcul des éléments du vecteur d’erreur en gérant le début 58 - for s=1+(i-1):64+(i-1) 76 sur 84 .1. ALGORITHME DE TRAITEMENT BRUT 59 - sign2=(myrecordings((64+(s-1)):-1:(1+(s-1))))’; 60 - yk(s) = (sign2) * w’; 61 - err(s+63)=((yk(s)-myrecordings(64+(s-1)))); 62 - end 63 - 64 - %Début du processus de réinitialisation du filtre 65 - 66 - %Algorithme PNLMS (Calcul du vecteur W1) 67 - w1=(w’+(mu * Gk * ((sign)’) * err(i+63))/(sign * Gk * (sign)’+b))); 68 - %Algorithme NLMS (Calcul du vecteur W2) 69 - w2=(w’+((mu * ((sign)’) * err(i+63))/(((sign) * ((sign)’)+b)))); 70 - 71 - 72 - %Réinitialisation des coefficients du filtre par PNLMS++ 73 - 74 - for k=1:64 75 - %Coefficients impairs par PNLMS 76 - if mod(k,2)==1 77 - w(k)=w1(k); 78 - %Coefficients pairs par NLMS 79 - elseif mod(k,2)==0 80 - w(k)=w2(k); 81 - end 82 - end 83 -end 84 -%Fin du chronométrage 85 -toc; Revenir dans le texte en cliquant 3.4.1. 77 sur 84 .2 Algorithme de traitement par blocs 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage en respectant Shannon 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -w=zeros(1,64); 27 -zero=zeros(1,64); 28 -%Complément de W par des zeros pour atteindre la longueur réquise 78 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 29 -wk=[w,zero]’; 30 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 31 -b=100; 32 -D=(1/64); 33 -rho=(10^(-2)); 34 -mu=(0.8); 35 -%Initialisation des W pour BNLMS puis BPNLMS. 36 -w1=(ones(1,64))’; 37 -w2=(ones(1,64))’; 38 -%Initialisation des vecteurs utiles au calcul de Gk. 39 -gam=zeros(1,64); 40 -gk=zeros(1,64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Sélection particulier du premier bloc d’échantillons 45 - if i==1 46 - sign=(myrecordings(1:128))’; 47 - sign2=(myrecordings(128:-1:1)); 48 - %Sélection général de tous les blocs 49 - elseif i>=2 50 - sign=(myrecordings(65+64 * (i-2):192+64 * (i-2)))’; 51 - sign2=(myrecordings((192+64 * (i-2)):-1:(65+64 * (i-2)))); 52 - end 53 - 54 - %Transformation du signal d’entrée et du vecteur W 55 - SIG=fft(sign); 56 - W=(fft(wk))’; 57 - %Calcul du produit terme à terme des deux vecteurs 58 - Y=SIG. * W; 79 sur 84 59 - %Transformation inverse pour retrouver le produit de convolution 60 - YW=ifft(Y); 61 - %Sélection des termes utiles recherchés 62 - yw=YW(65:128); 63 - %Calcul du vecteur d’erreurs 64 - err=(myrecordings(1+64 * (i-1):64 * i))’-(yw); 65 - %Complément du vecteur par des zeros puis transformation 66 - ERR=[err,zero]; 67 - errF=fft(ERR); 68 - %Transformation du vecteur image 69 - SIG2=fft(sign2); 70 - %Réalisation de l’étape 3°) points 15, 16 et 17 de l’algorithme 71 - ERsign=(errF)’. * (SIG2); 72 - erSIGN=ifft(ERsign); 73 - es=erSIGN(65:128); 74 - %Réalisation de l’étape 3°) points 18 et 19 (autocorrélation) 75 - RSS=SIG2. * (SIG)’; 76 - RSs=ifft(RSS); 77 - Rss=RSs(65:128); 78 - 79 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 80 - Vk=max([D,abs(w)]); 81 - %Calcul du vecteur Gk 82 - for k=1:64 83 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 84 - end 85 - for M=1:64 86 - gk(M)=((gam(M))/(mean(gam))); 87 - end 88 - Gk=diag(gk); 80 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 89 - %Réalisation de l’étape 3°) point 21 90 - GkRss=Gk * (Rss); 91 - 92 - GkEsi2=Gk * es; 93 - 94 - %Réinitialisation des coefficients du filtre 95 - 96 - for j=1:64 97 - %Algorithme BPNLMS 98 - w1(j)=(w(j)+((mu * GkEsi2(j))/(GkRss(j)+b))); 99 - %Algorithme BNLMS 100 - w2(j)=(w(j)+((mu * es(j))/(Rss(j)+b))); 101 - 102 - %Réinitialisation des coefficients du filtre par BPNLMS++ 103 - %Coefficients impairs par BPNLMS 104 - if mod(j,2)==1 105 - w(j)=w1(j); 106 - %Coefficients pairs par BNLMS 107 - elseif mod(j,2)==0 108 - w(j)=w2(j); 109 - end 110 - end 111 -end 112 -w=((ones(1,64)) * (13.5)-(w))/(13.5); 113 -%Fin du chronométrage 114 -toc; Revenir dans le texte en cliquant 3.4.2. 81 sur 84 Bibliographie [1] ALAEDDINE, H.Application de la transformée en nombres entiers à la conception d’algorithmes de faible complexité pour l’annulation d’échos acoustiques.PhD thesis, Université de Bretagne Occidentale, Juillet 2007. Investigations théoriques. [2] CALAIS, J.Extensions de corps _ Théorie de Galois, ellipses ed. Mathématiques à l’Université, 2006. [3] CARIOLARO, G.Unified Signal Theory. Springer, University of Padova, Italy, 2011. [4]DECOULON, F.Théorie et traitement des signaux, vol. VI. Presses polytechniques et universitaires romandes, CH-1015 Lausanne, 1996. Fondements du traitement des signaux. [5] DESMORAT, R. Cours d’acoustique physique. Ecole Normale Supérieure (ENS Paris- Saclay), Mai 2017. [6] Introduction au filtrage adaptatif. fmy, 2005. [7] GARNIER, H. Rappels sur la théorie de l’échantillonnagede l’analogique au numérique. Université de Lorraine, Polytech NANCY.hugues.garnier@univ-lorraine.fr. [8] HENRI, A. J. . L.Méthodes matricielles _ Introduction à la complexité algébrique. arXiv math, avril 2012, ch. 7. [9] HIRIART-URRUTY, J.-B. Topologie et analyse hilbertienne: Une introduction pragmatique. Notes de cours, Université Paul Sabatier de Toulouse. [10] MALLAT, S. Traitement du signal. Notes de cours, Ecole Normale Supérieure - DÉPARTEMENT DE MATHÉMATIQUES / ENSEIGNEMENT, 45 rue d’Ulm 75230 Paris Cedex 05 - Tél : 01 44 32 31 72 -education@math.ens.fr, 2015. 83 BIBLIOGRAPHIE [11] MAURICECHARBIT, G. B. Traitement du signal audio-numérique. ATIAM: Parcours multi-mentions du master Sciences et Technologies, Septembre 2012. Université Pierre et Marie Curie - Paris 6 en collaboration avec TELECOM ParisTech et l’IRCAM. [12] MULLER, J.-P. Le traitement numérique du signal audio.www.ponge.biz, Juille 2001. [13] PISKOUNOV, N.Calcul différentiel et intégral, editions mir ed., vol. II. Juin 1993. [14] P.JARDIN, J.-F. B. . Introduction au filtrage adaptatif. ESIEE Paris, 2003. [15] PONTON, L. Groupes, anneaux, corps et théorie de galois. Papiers personnels _ lionelponton.fr. [16] SINCÈRE, F. Filtrage numérique d’un signal d’évolution lente avec un microcontrôleur. IUT de Nancy-Brabois.http://perso.orange.fr/fabrice.sincere,Version 1.2.2. [17] SINCÈRE, F. Module d’electronique, troisième partie : Conversion de données. IUT de Nancy-Brabois. http://perso.orange.fr/fabrice.sincere,Version 3.0.1. [18] TERTRE, D.Conception avancée des circuits intégrés analogiques.convertisseurs a/n et n/a. Ecole nationale supérieure des Mines de Saint-Etienne, 2009.www.emse.fr/~dutertre/ enseignement.html. [19] WIKIPÉDIA. Processeur de signal numérique, 2021. 84 sur 84
Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences).
UNIVERSITE LIBRE DES PAYS DES GRANDS LACS ULPGL-GOMA B.P368GOMA /WWW.ULPGL.NET FACULTÉ DESSCIENCES ETTECHNOLOGIESAPPLIQUÉES Département de Génie Électrique et Informatique CONCEPTION D’UN FILTRE ANNULATEUR D’ECHO SONORE MIXTE Travail de fin de cycle présenté en vue de l’obtention du diplôme de Graduat en Sciences Appliquées. Présenté par :KRAME KADURHA DAVID Directeur : DI.Dr.Tech. ALAINAKWIR NKIEDIEL Encadreur : Ass2.Ing. DIEUDONNÉMUSONGYA BISIMWA Année académique2019−2020 DÉDICACES A Ma mère Charlotte, mon oncle Aciza et ma petite Joëlle dont respectivement le courage, l’humilité et l’innocence sont toujours une source d’inspiration. i REMERCIEMENTS En premier lieu, nous remercions Dieu pour nous avoir caché les choses tout en nous rendant capables de les trouver par nous mêmes. C’est à la fois un bonheur et un honneur. Nos remerciements particuliers à notre directeur, DI.Dr.Tech. Alain AKWIR NKIEDIEL, et notre encadreur, Ass2.Ing. Dieudonné MUSONGYA BISIMWA, pour le suivi humble, patient et attentif qu’ils nous ont accordé durant l’élaboration de ce document. Nous remercions aussi tous ceux dont l’existence contribue énormément à notre bien-être. Nous pensons particulièrement à notre mère BALIBUNO NZIGIRE Charlotte, Joëlle ANSIMA, Aciza CUBAKA, Daniel KADURHA, Emmanuella MUSIMWA, Florence CINAMA, Generose ABEKA, Alohn SHETEBO, Carine SHETEBO, Sr Catherine, Christian RUBONEKA, Bijoux NAMWESI et Bernardin BWIRABUCIZA. Nos remerciements les plus reconnaissants à Juvénal BALIBUNO, Marcellin BALIBUNO, Bakondjo MUHUBAO, Charles BISIMWA, Akonkwa BALIBUNO, Irène IRAGI, Georgette, Eka BIGABWA, Labii KADURHA, Déo KADURHA, Yvette BUBAKA, Ciza BUBAKA, Ludwine BALIBUNO ,etc. A nos chers grand-parents BALIBUNO Richard et François KADURHA dont respectivement la perspicacité et l’érudition ne cesseront de nous inspirer et de nous guider. Nous remercions enfin nos amis et camarades, pensant nommément à Wen KAMUNTU, Bruno KAMOLE, Patricia OLINABABO, Yvan KAHASHI, Naomi MASASI, Chrispin CIRHULWIRE, Divin KUBIYA, Patient KUBUYA, Pierre MABILI, Styve EBASOMBA, Jacques NDAVARO et tous les gens bienveillants. Recevez nos remerciements les plus sincères. KRAME KADURHADAVID iii RÉSUMÉ Ce travail consiste à concevoir un filtre numérique destiné à un système annulateur d’écho sonore. Pour y parvenir, on commence par passer en revu les notions générales de la théorie de traitement du signal directement utiles à cette fin. Après cela, une analyse détaillée des algorithmes élaborés pour l’identification des systèmes est réalisée pour finalement déboucher sur deux choses: l’étude des techniques permettant d’optimiser au maximum les algorithmes et le choix d’un algorithme particulièrement adapté aux systèmes annulateurs d’écho (on a choisi leBPNLMS++). Ici le système à identifier est le chemin d’écho. L’algorithme choisi et amélioré est écrit et testé sous Matlabpour en vérifier la validité (le test de validation est réalisé dans une situation où l’on sait déjà le résultat prévu par la théorie et on simule l’algorithme pour le valider ou l’invalider). La validation ayant réussi, le filtre est prêt à être implémenté comme tel sur une plateforme d’annulation d’écho. Le filtre conçu est évidemment adaptatif étant donné que les signaux sonores sont non stationnaires; l’algorithme sert donc à l’adaptation des coefficients du filtre jusqu’à ce qu’il devienne utilisable dans l’enceinte considérée (en peu de temps et chaque fois que c’est nécessaire). Donc ces coefficients sont figés pendant le filtrage. Ainsi, on peut facilement, grâce à ce filtre, modéliser l’écho d’un signal en entrée, et le soustraire du signal global à transmettre comme réponse à l’émetteur, pour que ce dernier ne puisse pas recevoir une réplique du signal qu’il a émis (l’écho est ainsi supprimé). Le travail est effectivement clos par la validation de l’algorithme qui implémente le filtre adaptatif conçu, ainsi que par un essai d’annulation d’écho. v SIGLES ET ABRÉVIATIONS ADC: Analog to Digital Converter; BLMS: Block Least Mean Square; BNLMS: Block Normalized Least Mean Square; BPNLMS++: Block Proportionnate Normalized Least Mean Square amélioré; CAN: Convertisseur Analogique-Numérique; CNA: Convertisseur Numérique-Analogique; DAC: Digital to Analog Converter; DSP: Digital Signal Processing; FFT: Fast Fourier Transform; FNT: Fermat Number Transform; GF: Galois Field; GPS: Global Positionning System; LMS: Least Mean Square; NLMS: Normalized Least Mean Square; NNT: Natural Number Transform; PNLMS: Porportionnate Normalized Least Mean Square; PNLMS++: PNLMS amélioré; RLS: Recursive Least Square; SNR: Signal-to-Noise Ratio. vii Table des matières DÉDICACESi REMERCIEMENTSiii RÉSUMÉv SIGLES ET ABRÉVIATIONSvii INTRODUCTION GÉNÉRALE1 0.1Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 0.2Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.3Formulation des hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 0.4Objectifs du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.1Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.4.2Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.5Choix et intérêt du sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 0.6Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . . . .4 0.7Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL7 1.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 1.2Bases théoriques du traitement du signal . . . . . . . . . . . . . . . . . . . . . . .8 1.2.1Fondement de l’analyse des signaux[4] . . . . . . . . . . . . . . . . . . .8 1.2.2Signaux déterministes . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 ix TABLE DES MATIÈRES 1.2.3Signaux aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12 1.2.4Cas des signaux discrets . . . . . . . . . . . . . . . . . . . . . . . . . . .14 1.3Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.3.2Prélude au filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . .20 1.4Traitement du signal audio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 1.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON25 2.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 2.2Quelques algorithmes de filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . .26 2.2.1Algorithme du gradient déterministe . . . . . . . . . . . . . . . . . . . . .26 2.2.2Algorithme du gradient stochastique(LMS)[1] . . . . . . . . . . . . . . . .28 2.2.3Algorithme des Moindres Carrés Récursif [1]&[14] . . . . . . . . . . . . .28 2.2.4Algorithme LMS Normalisé (NLMS) [1]&[6] . . . . . . . . . . . . . . . .29 2.2.5Algorithme Proportionné Normalisé (PNLMS)[1] . . . . . . . . . . . . . .30 2.2.6Algorithme PNLMS++ [1] . . . . . . . . . . . . . . . . . . . . . . . . . .31 2.3Transformée en nombres entiers (NNT) [1] . . . . . . . . . . . . . . . . . . . . .32 2.3.1Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 2.3.2Transformation en nombres de Fermat et arithmétique binaire . . . . . . .33 2.3.3Version rapide de la FNT . . . . . . . . . . . . . . . . . . . . . . . . . . .35 2.3.4La convolution rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 2.3.5Multiplication optimale des matrices [8] . . . . . . . . . . . . . . . . . . .37 2.4Traitement par bloc des algorithmes d’annulation d’écho . . . . . . . . . . . . . .38 2.4.1Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38 2.4.2Algorithmes proprement-dits [1] . . . . . . . . . . . . . . . . . . . . . . .40 2.5Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .42 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ43 3.1Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 x sur 84 TABLE DES MATIÈRES 3.2Structure globale du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . .43 3.2.1Filtre anti-repliement . . . . . . . . . . . . . . . . . . . . . . . . . . . . .44 3.2.2Convertisseurs Analogique-Numérique et Numérique-Analogique . . . . .46 3.2.3Filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.2.4Traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49 3.3Élaboration de l’algorithme et présentation du système . . . . . . . . . . . . . . .50 3.3.1Élaboration de l’algorithme d’apprentissage . . . . . . . . . . . . . . . . .51 3.3.2Présentation du système réel . . . . . . . . . . . . . . . . . . . . . . . . .54 3.4Implémentation de l’algorithme et simulations . . . . . . . . . . . . . . . . . . . .55 3.4.1Traitement brut des données . . . . . . . . . . . . . . . . . . . . . . . . .55 3.4.2Traitement par bloc des données . . . . . . . . . . . . . . . . . . . . . . .57 3.4.3Essais comparés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .59 3.5Analyse des résultats et explication de l’implantation sur DSP . . . . . . . . . . .65 3.5.1Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65 3.5.2Explication de l’implantation sur DSP . . . . . . . . . . . . . . . . . . . .66 3.6Annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .66 3.7Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .68 CONCLUSION GÉNÉRALE69 ANNEXES73 .1Algorithme de traitement brut . . . . . . . . . . . . . . . . . . . . . . . . . . . .75 .2Algorithme de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . .78 xi sur 84 Liste des figures 1.1Visualisation d’un signal de parole sur une durée de 1/16 de seconde . . . . . . . .13 3.1Chaîne typique de traitements du signal . . . . . . . . . . . . . . . . . . . . . . .44 3.2Absence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.3Présence de repliement[7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .45 3.4Echantillonnage-Quantification-Codage[18] . . . . . . . . . . . . . . . . . . . . .47 3.5Positionnement du filtre de lissage . . . . . . . . . . . . . . . . . . . . . . . . . .48 3.6Processus complet de conversion N/A (signaux associés) . . . . . . . . . . . . . .48 3.7Signal d’entrée utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .56 3.8Valeurs des64coefficients du filtre . . . . . . . . . . . . . . . . . . . . . . . . . .57 3.9Les64coefficients du filtre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58 3.10 Les64coefficients du filtre 2 non formatés . . . . . . . . . . . . . . . . . . . . . .59 3.11 Coefficients du filtre 1 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.12 Coefficients du filtre 2 pour 10000 itérations . . . . . . . . . . . . . . . . . . . . .60 3.13 Coefficients du filtre 1 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.14 Coefficients du filtre 2 pour 1000 itérations . . . . . . . . . . . . . . . . . . . . .61 3.15 Coefficients du filtre 1 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.16 Coefficients du filtre 2 pour 100 itérations . . . . . . . . . . . . . . . . . . . . . .62 3.17 Coefficients du filtre 1 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.18 Coefficients du filtre 2 pour 10 itérations . . . . . . . . . . . . . . . . . . . . . . .63 3.19 Coefficients du filtre 1 pour 4370 itérations . . . . . . . . . . . . . . . . . . . . .64 3.20 Coefficients du filtre 2 pour 400 itérations . . . . . . . . . . . . . . . . . . . . . .64 3.21 Démonstration de l’annulation d’écho . . . . . . . . . . . . . . . . . . . . . . . .67 xiii INTRODUCTION GÉNÉRALE 0.1 Contexte La communication est un facteur clé dans l’émergence d’une société. Ce fait se démontre par le développement assez important survenant après que l’homme ait développé les méthodes de traitement, manipulation et interprétation des signaux. Il existe plusieurs types de signaux, mais nous nous focaliserons dans ce travail, sur les signaux sonores. L’onde sonore résulte d’une perturbation du milieu de propagation considéré. En effet, le milieu de propagation 1 est complètement connu si en chacun de ses points et à chaque instant on a la valeur de la vitesse, la pression et celle de la densité. Quantitativement, cela revient à définir les fonctions donnant ces grandeurs. Sous l’effet de la perturbation des dites grandeurs (avec l’approximation acoustique[5], ces perturbations sont très négligeables par rapport à la valeur au repos de la grandeur perturbée), on constate une variation qui respecte l’équation des ondes. Cela traduit le fait que le son est une onde, ce qui veut dire que son comportement est bel et bien analogue à tout type d’onde. De ce fait, il subira tous les traitements réservés aux grandeurs ondulatoires. Il peut donc subir la diffraction, la réfraction, l’interférence,... exactement comme tout type d’onde. On peut aussi en étudier le phénomène de réflexion et cela nous amène immédiatement à l’étude de l’écho lui associé, c’est ce qui va particulièrement nous préoccuper dans ce travail. L’écho acoustique en tant que phénomène physique, n’est en aucune manière problématique ni dérangeant. Il peut néanmoins s’avérer indésirable lors d’une communication par exemple. C’est ainsi qu’il est parfois impératif de trouver une solution à la nuisance apportée par des 1 Nous traiterons dans ce document, uniquement de la propagation du son dans les fluides et particulièrement dans les gaz; que nous supposerons évidemmentparfaits. 1 LISTE DES FIGURES échos acoustiques 2 non désirés. 0.2 Problématique Il arrive que, suite à un mauvais couplage du microphone avec le haut-parleur, nous puissions entendre notre voix résonner via l’ordinateur portable et les hauts-parleurs de la salle de réunion, via les écouteurs lors d’une vidéo-conférence, lors d’un appel téléphonique(surtout en mode mains libres)... Le phénomène peut ne pas durer assez longtemps mais il devient très vite gênant surtout quand il est perceptible. Toutefois, même quand l’écho n’est pas perceptible, il rend moins bonnes l’optimisation de la mémoire ainsi que la compression des données. La qualité du son lors d’une communication est très importante, surtout en application civile, et l’optimisation de l’espace de stockage en cas de besoin ne peut être que bénéfique. Cela fait à ce qu’il soit impérieux de focaliser notre recherche sur les moyens efficaces et rentables au point de vu économique, pour remédier au dit problème. De cette ambition naissent quelques questions auxquelles nous auront répondu à l’issu de ce travail, à savoir: 1. Le filtrage peut-il remédier complètement au problème de la présence indésirée d’écho sonore? 2. Un filtrage analogique peut-il suffire sans problème? 3. Sans mémorisation dynamique du signal, est-il possible de mieux annuler l’écho? 0.3 Formulation des hypothèses Nous estimons qu’un filtre résoudrait bel et bien le problème de la présence indésirée de l’écho acoustique dans les signaux sonores. Nous croyons également qu’un filtre purement analogique serait moins rentable pour réaliser de façon satisfaisante l’annulation de l’écho d’un signal sonore. 2 L’utilisation abusive du termeécho acoustiqueen lieu et place d’écho sonoren’est pas à considérer avec toute la rigueur 2 sur 84 0.4. OBJECTIFS DU TRAVAIL C’est pour cette raison que nous anticipons qu’un filtre mixte, allié à une mémorisation dynamique et optimisée du signal réaliserait amplement l’extraction du signal de base sans écho. 0.4 Objectifs du travail 0.4.1 Objectif général Notre travail consiste à concevoir un filtre annulateur d’écho acoustique. 0.4.2 Objectifs spécifiques Pour arriver à mettre conceptuellement sur pieds un filtre annulateur d’écho adapté, nous comptons: 1. Etudier la génération d’écho acoustique et circonscrire le problème; 2. Choisir l’approche adaptée pour modéliser la réponse d’une enceinte à l’onde sonore; 3. Évaluer la possibilité d’un traitement par filtrage adaptatif; 4. Etudier et adapter le filtrage numérique de l’écho; 5. Concevoir, étudier et tester les algorithmes d’annulation d’écho; 6. Proposer les éléments et paradigmes adaptés pour une perspective d’implantation du filtre. 0.5 Choix et intérêt du sujet Le filtrage des signaux est assez puissant pour résoudre tout problème consistant à séparer le signal utile d’avec le bruit. Nous avons donc songé à appliquer ce type de traitement au son juste en ce qui concerne l’annulation de l’écho, sans nous préoccuper des autres signaux indésirables qui brouilleraient le signal utile. La conception d’algorithmes de filtrage du son serait rendue plus efficace sur un grand nombre des points si le problème de l’écho se trouvait préalablement résolu. Ainsi, ce sont d’autres parasites qui seraient pris en compte et l’écho deviendrait secondaire. 3 sur 84 LISTE DES FIGURES Sur le plan social, il est évidemment important d’augmenter le confort lors d’une communication par exemple en annulant l’écho quand cela s’avère nécessaire mais également, d’optimiser l’utilisation d’un espace mémoire en cas de stockage des données. 0.6 Méthodologie de recherche et délimitation du travail Nous procéderons par analyse et expérimentation (notamment grâce au logicielMatlab) avec comme techniques, l’analyse du contenu et la documentation. Notre travail se focalise uniquement sur l’onde sonore, principalement sur le filtrage ainsi que l’annulation de l’écho généré 3 . Nous réaliserons donc le filtrage dudit signal dans un contexte plus général (indépendamment de l’enceinte, considérant juste la modélisation de la réponse de l’enceinte, ou du lieu en général, à l’onde sonore). Cela nous conduira à élaborer un filtre adapté avec optimisation des apports respectifs des parties numériques et analogiques. Il faut également noter que le milieu de propagation considéré dans le présent travail est le gaz parfait. Aussi, nonobstant le fait que certains résultats trouvés soient applicables pour tout type de fluide, nous ne les appliquons qu’au cas des gaz parfaits. 0.7 Subdivision du travail Excepté l’introduction et la conclusion générales, nous avons dans ce travail: • AuChapitre 1,Les généralités sur le traitement du signal, nous nous focalisons sur les aspects du traitement des signaux qui seront utiles à notre projet (particulièrement le traitement du signal audio). • AuChapitre 2,Etude théorique du filtrage du son, nous traitons particulièrement du filtrage de l’onde sonore en vu d’annuler un écho éventuel. Nous y parlons également des différentes 3 On ne traitera par exemple pas de l’écho électrique dû aux caractéristiques des éléments intervenant dans le traitement et la transmission du signal. 4 sur 84 0.7. SUBDIVISION DU TRAVAIL méthodes d’annulation d’écho et particulièrement des algorithmes existant. • AuChapitre 3,Conception d’un filtre mixte adapté, nous concevons, étape par étape, le filtre recherché en nous basant sur les algorithmes du chapitre précédent, tout en les complétant et en les améliorant en cas de besoin. Nous y donnons également des lumières utiles pour l’embarcation du système. 5 sur 84 Chapitre 1 GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.1 Introduction partielle L’un des moyens permettant de se faciliter la tâche de manipulation du son, consiste à le voir comme une fonction mathématique (bien que non modélisable comme tel de manière rigoureuse). Ainsi on voit le son comme la variation d’une quantité (l’énergie de pression transmise par exemple) en fonction du temps. Cela nous permet de le traiter comme un signal parmi tant d’autres et ainsi avoir le droit d’y appliquer des résultats élaborés pour cet effet dans le cadre d’une discipline nommée traitement du signal. Le traitement du signal est en effet une discipline qui est axée sur le traitement, l’interprétation et l’analyse des signaux. Un signal peut être contrôlé, filtré, comprimé, transmis, débruité, déconvolué, identifié, classifié... C’est donc une discipline dont l’objet central d’étude est le signal (concept qui regroupe nombreux phénomènes bien particuliers comme le son, l’image,...). Dans ce premier chapitre, nous abordons particulièrement les notions de base du traitement des signaux tout en orientant notre exposé dans le sens du traitement du signal qui nous concerne. Tout converge vers un traitement particulièrement utile pour notre étude, le filtrage. Nous nous focalisons sur le traitement numérique du signal vu que c’est ce qui facilite la manipulation et l’élaboration des systèmes de traitement des signaux. C’est ainsi que nous misons particulièrement sur le filtrage adaptatif bien adapté aux signaux évoluant dans le temps, ce qui est évidemment le 7 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL cas de la majorité des signaux sonores. 1.2 Bases théoriques du traitement du signal 1.2.1 Fondement de l’analyse des signaux[4] Un signals(t)peut être vu approximativement comme une combinaison linéaire des fonctions simples et connues formant la base d’un espace vectoriel à dimensionnqui est infini à la limite. Cela étant, on associera à chaque fonctionf i (t)constituant la base dudit espace vectoriel un coefficientα i . Ce qui donne: s(t) = n ∑ i=1 α i f i (t)(1.1) Cette représentation des signaux est très capitale car elle facilite l’analyse du signal ainsi représenté et permet d’aborder le traitement numérique du signal. En effet, le traitement numérique d’un signal ne peut être envisagé que s’il est discrétisé or, la manière donts(t)est écrit en 1.1 suggère qu’il peut se voir comme un vecteur dont les composantes sont lesα i , ce qui le rend en fait discret. Nous venons de former un espace vectoriel des fonctions, isomorphe àR n ou àC n selon que le signal est modélisé sous la forme réelle ou complexe. On remarque ques(t)peut être représenté par un vecteur dont les composantes changent en fonction de la famille desf i (t)choisie. Le choix de cette famille est également primordial car c’est de lui que dépend la facilité d’analyse du signal considéré. La représentation des signaux par des vecteurs est très féconde etpermet par exemple d’évaluer le degré de ressemblance des signauxgrâce à la notion de distance. Pour cela, on définit une norme ‖.‖sur l’espace des fonctions introduit tel que pour tout signals(t)on ait que: ‖s(t)‖ 2 = √ √ √ √ n ∑ i=1 (α i ) 2 (1.2) 8 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Par analogie on a que la norme de s(t) est sur une périodeτ: ‖s(t)‖ 2 = √ ∫ τ |s(t)| 2 dt(1.3) L’expression 1.3 signifie que les signaux doivent être à carré intégrable. Le sens physique est que les signaux doivent avoir une énergie finie. Ce qui précède est évident pour un signal réel et constitue une condition supplémentaire à imposer à l’espace des signaux. Soients(t) = (α 1 ,...,α n )etu(t) = (β,...,β n )deux signaux, la distance entre les deux signaux sera donnée par la distance usuelle découlant de la norme définie en 1.2. Soit que: d(s,u) =‖s−u‖ 2 (1.4) = √ √ √ √ n ∑ i=1 (α i −β i ) 2 (1.5) Notez que par analogie on peut également définir, en vertu de 1.3, la distance entre les signaux par: d(s(t),u(t)) = √ ∫ τ |s(t)−u(t)| 2 dt(1.6) La norme, telle que définie en 1.2, dérive 1 évidemment d’un produit scalaire[9]; ce produit est donné par: 〈s,u〉= n ∑ i=1 (α i .β ? i )(1.7) Avecβ ? i le complexe conjugué deβ i pour être plus général. Comme habituellement nous pouvons aussi définir ce produit pour les signaux non discrétisés sur une période de tempsτpar: 〈s(t),u(t)〉= ∫ τ (s(t).u ? (t))dt(1.8) Le produit scalaire de deux vecteurs est proportionnel à la projection de l’un sur l’autre. Il est 1 Car on a que‖s‖= √ 〈s,s〉 9 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL maximum, en valeur absolue, lorsque les deux vecteurs ont la même orientation et nul lorsqu’ils sont orthogonaux. Il peut donc être considéré comme une mesure de la similitude d’orientation des vecteurs. En d’autres termes, le rapprochement des signaux dans leur évolution (similitude des formes). L’espace vectoriel des fonctions ainsi défini et muni de ce produit scalaire qui y induit une norme estcomplet[9] et constitueun espace de Hilbert. La connaissance de cette structure est cruciale car elle permet de traiter tous les éléments de cet espace des signaux en utilisant juste les résultats connus sur les espaces de Hilbert. Ce qui vient d’être démontré justifie que les signaux soient développables en série des fonctions orthogonales et non liées. D’où la possibilité de les développer ensérie de Fourierou bien en considérant les autres familles des fonctions orthogonales selon les besoins et la commodité. Le développement en série de Fourier est en fait d’une importance capitale en théorie du signal. 1.2.2 Signaux déterministes Les signaux déterministes sont ceux représentables par une fonction analytique. Suite à ce qui vient d’être montré à la sous-section précédente, nous allons reconsidérer la transformée de Fourier dans cette partie et en aborder les aspects utiles à notre travail. La transformation de Fourier est vue comme une généralisation du développement en série des fonctions orthogonales de Fourier tel que présenté dans la partie qui précède. Le développement en série Fourier est donnée par [13]: s(t) = +∞ ∑ n=−∞ [S n .e j2πnft ](1.9) Cette équation constitue donc, à quelques changements de variable près, un cas particulier de 1.1. Avec les coefficientsS n donnés par: S n = 1 T . ∫ T 2 −T 2 s(t).e −j2πnft dt(1.10) 10 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Définition [4] Soits(t)un signal déterministe, sa transformée de FourierSest définie par: S(f) = ∫ +∞ −∞ s(t).e −j2πft dt(1.11) Avectla variabletempsetflafréquence. Ce qui induit une dualité temps-fréquence, le passage de l’un des domaines à l’autre étant réalisable par symétrie vu que la transformée inverse de Fourier est donnée par: s(t) = ∫ +∞ −∞ S(f).e j2πft df(1.12) Intérêt de la transformation ainsi définie On démontre que l’une des conditions pour qu’une fonctionf(t)soit développable en série de fonctions orthogonales trigonométriques (série de Fourier) est qu’elle soit périodique, et pourtant dans la majorité des situations ce n’est pas le cas. Ici nous comptons montrer qu’à une fonction quelconque correspondra unetransformée de Fourier 2 . Pour cela, considérons un signal quelconques(t)et ciblons-y une région simple dont on connait l’expression analytique. Supposons ensuite un signals 1 (t)qui serait une réplique à l’infini de la partie ciblée.s 1 (t)est par cela périodique de périodet f −t i avect f l’instant final de la partie ciblée ett i son instant initial. Suite à cette définition des 1 (t), il est évident qu’en prenantT(c’est-à-diret f −t i )infinie, cela revient à prendres(t). D’où: s(t) = lim T→+∞ s 1 (t)(1.13) Nous savons pourtant que le développement des 1 (t)en série de Fourier existe car elle est périodique. Il sera donné mutatus mutandi par les rélations 1.9 en prenant en compte 1.10. Par conséquent,la représentation fréquentielle des 1 (t)est un spectre des raies et la distance entre raies adjacentes vaut f 1 = 1 T étant donné que le développement en série de Fourier suggère que toutes les fréquences, 2 Évidemment, si ladite fonction est à carré sommable, c’est-à-dire si son carré a une intégrale finie. 11 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL dans le développement des 1 (t), sont multiples def 1 . La densité spectrale de raies sera alors donnée par, suite à la relation 1.10: S 1 n f 1 =T.S 1 n = ∫ T 2 −T 2 s 1 (t).e −j2πnf 1 t dt(1.14) Ainsi donc, les raies deviennent de plus en plus rapprochées à mesure queTcroît et à l’infini, la somme donnée en 1.9 se transforme en une intégrale etf 1 devient infinitésimale, ce qui fait que: s(t) = lim T→+∞ s 1 (t) = lim T→+∞ { +∞ ∑ n=−∞ 1 T .[ ∫ T 2 − T 2 (s 1 (t).e −j2πnf 1 t dt)].e j2πnf 1 t } = ∫ +∞ −∞ df.[ ∫ +∞ −∞ s(t).e −j2πft dt)].e j2πft = ∫ +∞ −∞ S(f).e j2πft df Ceci exprime très clairement qu’un signal s(t) quelconque peut être vu comme la transformée inverse de sa transformée de Fourier. Cela prouve qu’il existe, sous certaines hypothèses(voir la note de bas de page précédente), une fonction fréquentielleS(f)exprimant le signals(t)dans le domaine des fréquences. C’est évidemment clair étant données les relations 1.11 et 1.12. Nous en déduisons que la transformée de Fourier représente, à la limite, la densité spectrale de raies telle que définie en 1.14. D’où l’intérêt de cette transformée, généralisant le développement en série de Fourier, grâce à l’extension aux fonctions non périodiques. 1.2.3 Signaux aléatoires Les signaux déterministes, sont, comme nous venons de le voir, des fonctions telles que, à chaque instant, on dispose d’une règle permettant d’en évaluer la valeur. Cette règle peut être spécifiée sous forme d’une expression mathématique,ou d’une équation récurrente ou tout autre procédé de construction. Les fonctions déterministes forment la base de l’analyse mathématique, mais la plupart de phénomènes que nous aurons à modéliser ne sont pas de cette nature. 12 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Figure 1.1: Visualisation d’un signal de parole sur une durée de 1/16 de seconde Considérons le signal de parole représenté à la figure 1.1. Il est clair, à la vue de ce graphe, que l’on ne peut réduire ces observations à une fonction déterministe du temps. Nous pourrions peut-être trouver une fonction déterministe qui approxime correctement les valeurs observées sur un intervalle de temps[0,T], mais cette fonction ne serait pas une approximation valable de l’observation à l’extérieur de cet intervalle, et cette propriété perdurerait indépendamment de la durée[0,T]de l’observation. Le graphe 1.1 contient un très grand nombre d’irrégularités et ces irrégularités ne semblent pas respecter une évolution prédictible. Les observations ont un caractère aléatoire, dans le sens où nous ne savons pas déterminer, pour un instant donné, quelle sera la valeur précise de la mesure. Par contre, il est envisageable d’indiquer un intervalle de valeurs possibles et éventuellement de préciser comment ces valeurs sont distribuées à partir d’une certaine loi de probabilité. La bonne façon de décrire le comportement du phénomène est donc de spécifier, à chaque instant, une distribution de probabilité, permettant de décrire la vraisemblance de chaque observation. Dans le langage des probabilités, la valeur observée sur le capteur à chaque instant est une variable aléatoire et son évolution au cours du temps, un processus aléatoire. Cet exemple est le prototype d’une large classe de phénomènes qui conduit à adopter, pour les modéliser, la prise en compte de l’indéterminisme.[11] 13 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Les signaux aléatoires sont donc en bref des signaux dont la valeur instantanée est imprévisible, ce qui implique qu’ils n’ont pas de représentation analytique. Ces signaux seront étudiés grâce à certains paramètres statistiques qui leur sont associés. C’est en fait ces types de signaux qui sont rencontrés dans notre contexte et nous en reparlerons de manière plus approfondie, mais implicite, dans les parties qui vont suivre. 1.2.4 Cas des signaux discrets Nous aborderons ici les signaux discrets de manière secondaire. C’est-à-dire, en les prenant comme le résultat de l’échantillonnaged’un signal continu, vu que c’est cet aspect qui nous intéressera dans le présent travail. Echantillonnage Echantillonner 3 un signal consiste à prélever, à intervalle de temps régulier le plus souvent, les valeurs prises par le signal. Cela permet ainsi de voir le signal comme une suite de nombres et en permet le traitement par un ordinateur ou tout autre système de traitement des données. C’est en fait le processus deconversion analogique-numérique. De manière formelle donc, si on prélève les valeurs du signal avec une périodeT e , on aura une suite des nombres valant{s(nT e )} n∈Z 4 qui constitue les échantillons du signal. Par ce fait même, on est amené à songer au problème de reconstitution du signal à partir de ses échantillons. Avant de considérer ce problème, définissons l’impulsion de Dirac qui nous sera très utile pour la suite du travail même si elle n’est pas physiquement réalisable de manière parfaite car elle est idéale. Impulsion de Dirac[10] :Un Diracδ(t)est par définitionune distributiondont le support (domaine non nul) est réduit au pointt= 0et d’intégrale valant 1. Formellement, il est défini par: ∫ +∞ −∞ δ(t)dt= 1(1.15) 3 C’est l’une de manières les plus simples de discrétiser un signal 4 De manière tout à fait générale, sans prendre en compte dans un premier temps la causalité (c’est-à-dire le fait selon lequel le temps doit uniquement être pris positif) 14 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL Ce qui veut dire que cela correspond à un signal de durée nulle et de surface1. C’est en fait une limite définie pratiquement par [3]: δ(t) = lim T→0      1 T pour| t T |< 1 2 0pour| t T |> 1 2 (1.16) De cela on peut montrer que: ∫ +∞ −∞ s(t).δ(t)dt=s(0)(1.17) Commeδ(t−τ)représente une impulsion de Dirac localisée plutôt enτ, on aura que: ∫ +∞ −∞ s(t).δ(t−τ)dt=s(τ)(1.18) On remarque que cette manipulation permet de prélever des valeurs des(t)en des instantsτbien précis. Plus généralement, introduisons un opérateur complet d’échantillonnage nommépeigne de Dirac(plusieurs Dirac étendus sur toute la droite des réels et espacés chaque fois deτsecondes). Il sera donné par: c(t) = +∞ ∑ n=−∞ δ(t−nτ)(1.19) c(t)permet de réaliser complètement l’échantillonnage d’un signals(t)car avec lui on prélève à intervalle de temps régulierτ(période d’échantillonnage), la valeur correspondante du signal. En effet, le signal échantillonné est alors donné parla distribution: s e (t) = ∑ +∞ n=−∞ s(nT e )δ(t−nT e ) = ∑ +∞ n=−∞ s(t)δ(t−nT e ) =s(t) ∑ +∞ n=−∞ δ(t−nT e ) En bref, au vu du développement qui vient d’être fait, on a: s e (t) =s(nT e ) =s(nT e ).c(t) =s(t).c(t)(1.20) Echantillonner un signal revient donc juste à le multiplier par le peigne de Dirac. 15 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL Condition d’échantillonnage correct:La reconstitution du signal à partir de ses échantillons n’est réalisable que sous certains critères dont lethéorème d’échantillonnageditthéorème de Nyquist-Shannon. Ce théorème donne une condition sur le support du spectre (donné par la transformée de Fourier) du signals(t)pour reconstituers(t)à partir de ses échantillonss(nT e ). Ce théorème est ainsi énoncé: Théorème 1 (Nyquist-Shannon)Soits(t)un signal dont la transformée de FourierS(ω) 5 est à support dans[− π T e , π T e ]. Alorss(t)peut être reconstruit en interpolant sur ses échantillons s(t) = +∞ ∑ n=−∞ s(nT e ).h T e (t−nT e )(1.21) Avec h T =sinc( πt T ) = sin πt T πt T (1.22) Le théorème nous donne une condition surωpour que la reconstitution du signal à partir de ses échantillons soit possible. Cette condition est en effet|ω| ≤ π T e ce qui veut dire que la fréquence devra vérifierf max ≤ f e 2 ⇒f e ≥2.f max . En bref, le théorème 1 nous dit quela reconstitution du signal à partir de ses échantillons n’est possible que si la fréquence d’échantillonnagef e est supérieure ou égale au double de la fréquence maximale du spectre associé au signal. Transformée de Fourier Pour un signal discrets(nT e ), la transformée de Fourier est définie par[10]: S d (f) = +∞ ∑ n=−∞ s(nT e ).e −i.2πf.n (1.23) C’est au fait la transformée de Fourier de sa représentation sous forme de distribution telle que donnée par 1.20. On sait pourtant qu’à un point de vu réel on n’a qu’un nombre finiNd’échantillons. Pour prendre cela en compte, on définit la transformée de Fourier pour le cas dessignaux finis. Elle 5 ωreprésentant la pulsation du signal, avecω= 2.π.f 16 sur 84 1.2. BASES THÉORIQUES DU TRAITEMENT DU SIGNAL est évidemment donnée par: S d (f) = N−1 ∑ n=0 s(nT e ).e −i 2πn N f (1.24) Cela veut dire que la transformée inverse pour le cas des signaux discrets finis sera donnée par: s(nT e ) = 1 N N−1 ∑ k=0 S d (f).e i 2πk N n (1.25) Cette nouvelle définition( faite en 1.24) permet d’introduire en substance un algorithme de calcul rapidede la transformée de Fourier. Cet algorithme est largement utilisé par les processeurs spécialisés dans le traitement du signal. Transformée de Fourier Rapide:On parle souvent d’algorithme FFT. 6 C’est une méthode pour calculer la transformée de Fourier discrète d’un signal permettant de réduire le temps de calcul. Pour cela, on calcule la transformée sur une moitié de l’échantillon puis sur l’autre, réduisant ainsi la complexité de l’algorithme de recherche de la transformée. Plus précisément, cet algorithme réduit le nombre d’opérations nécessaires au calcul de latransformée de Fourier DiscrètedeN 2 avec la méthode ordinaire àNlog 2 Nopérations en utilisant la FFT.[3] Comme montré précédemment, c’est utilisé pour le cas de signaux discrets périodiques (signaux discrets finis périodisés comme va le montrer clairement l’explication de l’expression 1.30). Ici nous n’en donnons qu’une vue sommaire étant donné que dans la suite du travail nous en reparlerons de manière plus claire quoi qu’implicite (voir le point 2.3.3). 6 Fast Fourier Transform (FFT) 17 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL 1.3 Filtrage 1.3.1 Introduction Introduisons juste une opération qui nous sera très utile dans la suite. Filtrer un signal c’est lui faire subir une transformation bien particulière impliquant l’extraction d’une partie qu’on juge utile. En effet, la fonction d’un filtre est de modifier le contenu fréquentiel du signal d’entrée en transmettant intégralement le spectre du signal d’entrée sur certaines gammes de fréquences, et en bloquant le signal d’entrée pour les autres fréquences. Approximons un filtre par un système linéaire, homogène, invariant et stable[10]. Au point de vu formel ,le passage d’un signal à travers un filtre implique à ce qu’on lui fasse subir l’action d’un opérateur linéaire, homogène, invariant et stable. De ce fait, considérons un filtre représenté par un opérateur linéaireL. Au vu de ce que nous suggère la définition de l’impulsion de Dirac, se référant plus précisément à l’expression 1.18, nous voyons que: s(t) = ∫ +∞ −∞ s(u).δ(u−t)du(1.26) En lui appliquant l’opérateurlinéaireL, ce qui équivaut à le faire passer à travers un filtre,sans ignorer queδ(t) =δ(−t), on trouve: L(s(t)) =L{ ∫ +∞ −∞ s(u).δ(t−u)du}= ∫ +∞ −∞ s(u).L{δ(t−u)}du(1.27) Etant donné queLest aussi homogène en temps, on a que, siL{δ(t)}=h(t)alorsL{δ(t−u)}= h(t−u). Nous voyons évidemment queh(t)représentela réponse du système considéré à une impulsion de Dirac 7 . C’est ainsi que 1.27 donne: L(s(t)) = ∫ +∞ −∞ s(u).h(t−u)du(1.28) 7 C’est-à-dire le signal observé à la sortie du système en ayant appliqué une impulsion de Dirac en entrée. 18 sur 84 1.3. FILTRAGE C’est la définition duproduit de convolutiondu signal par la réponse impulsionnelle du filtre. En bref, faire passer un signal à travers un filtre linéaire et homogène consiste à faire le produit de convolution du signal par la réponse du filtre à une impulsion. Soit dit en passant, le produit de convolution des(t)parh(t)est donné par: s(t)? h(t) = ∫ +∞ −∞ s(u).h(t−u)du= ∫ +∞ −∞ s(t−u).h(u)du(1.29) La convolution discrète est définie de façon analogue (c’est-à-dire en remplaçant les signaux continus par les correspondants échantillonnés et les intégrales par des sommations discrètes). Toutefois, pour le cas des signaux finis, on définit plutôtla convolution circulairecar l’application de la relation précédente comme telle impliquerait la prise en compte des échantillons précédant le début de l’échantillonnage (valeur négative du temps). Pour cela, on considère que l’échantillon observé se répète à l’infini (périodisation des données récoltées). Donc, siNest le nombre d’échantillons, on devra faire tous les calculs surZ N . D’où la définition[10] de la convolution circulaire 8 : En posant ̇n=n modulo Ncar nous travaillons dansZ N , s(nT e )~h(nT e ) = N−1 ∑ p=0 s( ̇pT e ).h[ ̇ ̂ (n−p).T e ](1.30) La définition du produit de convolution ainsi donnée nous permet de donner un complement fondamental au paragraphe 1.2.2. Nous constatons en fait que les exponentiellese i2πft sont des vecteurs propresdes opérateurs de convolution qui sont sans doute des opérateurs linéaire (Lselon notre notation). En effet, appelonsL(•)l’opérateur de convolution défini parL(•) =h(t)?•. Nous aurons, à la lumière de la définition donnée par l’expression 1.29 alliée à la définition de la transformée de Fourier donnée en 1.11: L(e i2πft ) = ∫ +∞ −∞ h(u).e i2πf(t−u) du= (e i2πft ).H(f)(1.31) AvecH(f)la transformée de Fourier de la réponse impulsionnelleh(t)du filtreL. On le nomme fonction de transfert du filtre L. En toute évidence, les exponentiellese i2πft sont les vecteurs 8 La seule qui soit utilisable en pratique car définie pour les signaux finis. 19 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL propres de l’opérateur linéaireLet les fonctions de transfert associées sont lesvaleurs propres correspondantes. Cela dit, il est tout à fait clair quec’est plus intéressant d’exprimer tout signal comme somme d’exponentielles complexes pour faciliter les calculs en cas de filtrage, vu que ce dernier est exprimé par un opérateur dont les vecteurs propres sont des exponentielles. D’où l’intérêt de la série de Fourier et par ricochet, la transformée de Fourier. 1.3.2 Prélude au filtrage adaptatif Nous ne traiterons pas du filtrage classique ni dans un cadre discret ni dans un cadre continu vu que ce ne sera vraiment pas utile. Nous parlerons néanmoins dufiltrage adaptatifdont les concepts nous seront d’une grande utilité dans le cadre du présent travail. Pour cela, introduisons d’abord un filtrage particulier qui permettra d’aborder le filtrage adaptatif. Filtrage de Wiener[6] Ce type de filtrage est conçu pour séparer le signal d’avec le bruit comme tout autre type de filtrage. C’est-à-dire, séparer deux signaux à caractéristiques statistiques différentes. Soients(nT e )le signal d’excitation que nous noterons justes(n)par commodité(comme pour tous les autres signaux échantillonnés considérés dans ce paragraphe),y(n)signal qu’on voudrait obtenir à la sortie du système (entaché de bruit normalement),e(n)le bruit inconnu,y w (n)le signal modélisé à l’aide des paramètres du filtre,ε(n)l’écart entrey(n)ety w (n). Considérant que le signal passe par un système linéaire et homogène, nous aurons à la sortie un signal obtenu par convolution discrète du signal d’entrée avec la réponse impulsionnelle du filtre constituant le système considéré. Il existe donc les coefficientsw k tel que: y w (n) = p−1 ∑ k=0 w k .s(n−k)(1.32) Ce filtre est à réponse impulsionnelle finie de longueurp. Notez que, bien que non mentionné, cette convolution est faite avec les mêmes considérations que celles mentionnées pour laconvolution circulairedonnée en 1.30 sauf qu’ici, nous faisons abstraction desmodulospour ne pas alourdir l’écriture. Le problème ici consiste à minimiser 20 sur 84 1.3. FILTRAGE l’erreur d’estimation approximativeε(n) 9 . Nous allons utiliser les notations matricielles pour être général(en ce qui concerne le nombre de coefficients du filtre en particulier). La relation 1.32 devient: y w (n) = p−1 ∑ k=0 w k .s(n−k) =W T .S(n) =S(n) T .W(1.33) AvecW= ( w 0 w 1 ···w p−1 ) T ; S(n) = ( s(n)s(n−1)···s(n−p+ 1) ) T et l’exposantTsur les vecteurs indique qu’on a fait la transposition. De là on tire: ε 2 (n) = [y(n)−S(n) T .W] 2 =y(n) 2 −2y(n)S(n) T W+W T S(n)S(n) T W(1.34) AppelonsΓ(W)la valeur moyenne des erreurs commises (avecμl’opérateur indiquant qu’on fait une moyenne). C’est elle qu’il nous faudra chercher à minimiser pour espérer trouver un filtre optimal. Au vu du développement précédent nous aurons: Γ(W) =μ{y(n) 2 }−μ{2y(n)S(n) T W}+μ{W T S(n)S(n) T W}(1.35) DérivonsΓ(W)par rapport àW(ce qui correspond plus précisément à la recherche du gradient), ça donne: d[Γ(W)] dW =−2μ{y(n)S(n) T }+ 2μ{S(n)S(n) T }.W(1.36) Notons queμ{y(n)S(n) T }=          1 N ∑ N−1 n=0 y(n).s(n) 1 N ∑ N−1 n=0 y(n).s(n−1) . . . 1 N ∑ N−1 n=0 y(n).s(n−p+ 1)          avecNle nombre d’échantillons (Idem pour les autres moyennes, sachant que la moyenne d’une 9 On ditapproximativecar la sortie voulue n’est connue qu’à travers un transducteur (qui introduit également un bruit de fond). On minimise plutôt le carré de cette erreur pour des raisons tout à fait pratiques et calculatoires[14]. 21 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL matrice consiste à faire l’opération pour tous ses termes). Rappelons que: •μ{y(n)S(n) T }est un vecteur de dimensionp(vu quey(n)est un simple scalaire à chaque fois),on le nommevecteur d’intercorrélationet nous le noteronsR sy . •μ{S(n)S(n) T }est une matricep×pnomméematrice d’autocorrélationet nous la noterons R ss . Par conséquent, comme le minimum se retrouve en annulant le gradient, de l’expression 1.36 on tire l’équation donnant les coefficientsw k lorsque la dérivée est nulle, donc le filtre optimalW opt . On a: R ss .W=R sy ⇒W opt =R −1 ss .R sy (1.37) C’est l’équation normaledite deWiener-Hopf. On remarque évidemment qu’implémenter ce système aura un certain nombre de lacunes dont par exemple le temps de calcul des matrices ainsi que l’espace mémoire nécessaire surtout pour l’inversion de la matriceR ss . Le problème le plus pertinent est quesi les signaux ne sont pas stationnaires, ce qui est pourtant plus fréquemment le cas pour les signaux réels,R ss etR sy évoluent au cours du temps. Cela veut dire qu’il faudra chaque fois résoudre à nouveau l’équation de Wiener-Hopf. Ce qui vient d’être montré justifie qu’il est impérieux de trouver un moyen efficace pour pouvoir résoudre récursivement et plus rapidement l’équation de Wiener-Hopf. Le filtrage adaptatif apporte une solution efficace à ce problème. 1.4 Traitement du signal audio Le traitement du signal audio est un domaine très vaste qu’on ne peut espérer aborder de manière exhaustive dans ce document. Premièrement, cela serait une perte d’énergie et deuxièmement c’est une entreprise utopique. Le son peut en fait subir divers traitements dont le filtrage. Nous nous intéressons juste au filtrage ayant pour finalité l’annulation d’un écho présent dans le fichier 22 sur 84 1.5. CONCLUSION PARTIELLE sonore. L’annulation d’écho est ardue si on l’étudie de manière détaillée, c’est-à-dire en voulant considérer tous les paramètres qui entrent en jeu. En effet, pour annuler l’écho, il faut connaître précisément le milieu de propagation du son qu’on veut débarrasser de la perturbation en question. Le problème est qu’en premier, une telle étude serait irréalisable car cela prendrait en compte un très grand nombre de paramètres. En second lieu, les paramètres varieraient continuellement dans le temps (considérer pour cela le fait que, dans une enceinte, le changement de positon de l’un des éléments a une influence significative sur le comportement de ladite enceinte par rapport au signal à considérer; par exemple, le déplacement du microphone modifie directement la réponse de l’enceinte au signal et change par là même les calculs à faire pour annuler au mieux l’écho,...) et cela rendrait juste l’entreprise irréaliste. Une solution plus pratique serait d’aborder le problème de manière globale, en considérant plutôt l’enceinte comme un système dont il suffirait juste d’étudier le comportement, grâce à un modèle équivalant, qui faciliterait le traitement par des algorithmes de calcul et diminuerait ainsi le nombre de paramètres pris en compte. Cela rendrait l’étude systématique réalisable en pratique. Au vu de ce dont nous avons parlé dans les sections précédentes, la solution est d’étudier la fonction de transfert associée à l’enceinte considérée et de recourir au filtrage adaptatif pour une prise en compte efficace de l’évolution temporelle du système. La stratégie d’annulation d’écho acoustique repose sur une estimation du canal acoustique de l’écho en identifiant la réponse impulsionnelle du bouclage acoustique qui est retranchée finalement du signal. Le filtrage étant adaptatif, les coefficient du filtre sont adaptés en fonction de l’erreur commise à chaque itération. La réponse impulsionnelle du filtre varie au cours du temps et dépend du signal en entrée, de la séquence d’apprentissage et de l’algorithme d’optimisation choisi[1]. 1.5 Conclusion partielle Dans ce premier chapitre, nous avons premièrement justifié le bien fondé de l’application de l’analyse de Fourier au traitement du signal tout en pointant les résultats intéressants de cette dernière discipline. Deuxièmement, nous avons montré de manière implicite à quel point le traitement numérique du 23 sur 84 CHAPITRE 1. GÉNÉRALITÉS SUR LE TRAITEMENT DU SIGNAL signal est fécond et intéressant. En effet, il facilite les manipulations à effectuer sur les signaux, en facilite l’étude théorique et surtout, est plus adaptable aux divers systèmes de traitement des données existant, tout en étant moins sensible aux caprices de la nature (insensibilité du signal, dès qu’il est numérisé, aux perturbations de l’appareillage). Nous y avons également traité du filtrage adaptatif. Pour cela, le concept a été illustré par le filtre de Wiener (filtre en général non utilisable pour le son car restreint aux signaux stationnaires), très crucial pour le développement du filtrage adaptatif proprement-dit qui est abordé dans le chapitre qui suit. 24 sur 84 Chapitre 2 ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.1 Introduction partielle Le traitement du signal sonore doit être minutieusement réalisé car les effets d’un mauvais traitement sont facilement perceptibles. Un traitement particulier, le filtrage, avec comme objectif d’annuler l’écho éventuel du signal sonore, fait l’objet de ce chapitre. Nous avons principalement opté pour un traitement numérique du signal à cause des avantages que cela procure (allant de la facilité de traitement à la facilité de réplique des manipulations effectuées en passant par la grande disponibilité des concepts élaborés du domaine). C’est ainsi que nous présentons, en premier lieu, divers algorithmes de filtrage conçus principalement avec comme objectif d’aboutir à une possibilité d’annuler l’écho d’un signal sonore. En second lieu, nous abordons un type de transformation numérique particulier, la transformée en nombres de Fermat, qui constitue un substitut valable à la transformation de Fourier discrète dans des situations où il est impérieux de réduire la complexité de calcul des algorithmes élaborés. En troisième et dernier lieu, nous y présentons un paradigme très essentiel pour une réduction encore plus grande de la complexité des algorithmes élaborés pour le traitement des signaux. Il s’agit du traitement par bloc des séquences numériques. 25 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2 Quelques algorithmes de filtrage adaptatif Le filtrage adaptatif a été introduit à la fin du premier chapitre. En gros, ça consiste à réaliser le filtrage avec un filtre numérique qui change et s’adapte à l’enceinte selon un critère bien défini (un critère de minimisation du carré de l’erreur d’estimation par exemple). Pour cela nous avons parlé du filtre de Wiener qui, bien que n’étant utilisable qu’en cas des signaux stationnaires, nous permet d’aborder de manière claire et succincte le filtrage adaptatif. Ces algorithmes ont donc pour raison d’être l’approximation du filtre optimal de Wiener en cas des signaux non stationnaires. Il s’agit dufiltrage adaptatif proprement-dit. 2.2.1 Algorithme du gradient déterministe L’équation de Wiener-Hopf vue à la fin du précédent chapitre permet de retrouver le filtre optimal en résolvant un système depéquations àpinconnues. Cet algorithme permet de résoudre le système de manière itérative. Cela est fait en deux étapes: • Choix du vecteurW 0 (Winitial). • Obtention, à partir deW k , deW k+1 par incrémentation deW k dans la direction opposée au gradient de la fonction moyenne des erreursΓ(W)introduite en 1.35. Ainsi on aura[14]: W k+1 =W k − 1 2 λ∇[Γ(W)](2.1) Et pourtant on sait que, selon les notations adoptées, et suite à l’égalité 1.36 on a: −−→ gradΓ(W)≡∇[Γ(W)] = d[Γ(W)] dW =−2R sy + 2R ss W k (2.2) Par conséquent, l’algorithme du gradient déterministeest donné par[1]: W k+1 =W k +λ(R sy −R ss .W k )(2.3) 26 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF La stabilité de cet algorithme est contrôlée par lepas d’adaptationλ, elle dépend également de la matrice d’autocorrélation du vecteur d’entrée[1]. En effet, si on nommeE k l’écart entreW k etW opt aprèskitérations, on aura: E k =W k −W opt (2.4) or selon l’équation de Wiener-Hopf, R ss W opt =R sy (2.5) Et selon l’algorithme du gradient déterministe on aura: W k+1 =W k +λ.(R ss .W opt −R ss .W k )(2.6) =W k +λR ss .(W opt −W k )(2.7) =W k −λR ss .E k (2.8) De ce qui précède on tire que E k+1 =W k+1 −W opt =E k −λR ss .E k (2.9) Ce qui montre de manière évidente de quelle façon la convergence de l’algorithme dépend du pas d’adaptation et de la matrice d’autocorrélation du vecteur d’entrée. La convergence de l’algorithmeest assurée par la contrainte[14]: 0 λ 2 λ pro max (2.10) Avecλ pro représentant une quelconque valeur propre de la matrice d’autocorrélation du signal d’entrée etλ pro max la plus grande valeur propre de cette matrice. Notons que pour des faibles valeurs deλ(pas d’adaptation), le temps de convergence lui est inversement proportionnel. Le choix deλest trop délicat et sa fixité ne garantit pas une vitesse de convergence optimale de l’algorithme. Par conséquent, il est nécessaire d’y trouver une solution. 27 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON 2.2.2 Algorithme du gradient stochastique(LMS)[1] Cet algorithme dit des moindres carrés ou LMS (Least Mean Square) consiste à minimiser l’erreur quadratique moyenne. C’est-à-dire en considérant son gradient au lieu de celui de la moyenne des carrés des erreurs (que nous avons nomméΓ(W)). Cela résout approximativement le problème évoqué au paragraphe précédent pour l’algorithme du gradient déterministe, problème de faible vitesse de convergence pour des très faibles valeurs du pas d’adaptation. Au fait, c’est plus adapté en pratique car on a très rarement∇[Γ(W)]. Ainsi, comme∇[ε 2 (n)] =∇[ε 2 k ] = 2ε k . ∂ε k ∂W =−2.ε k .S k 1 , on aura l’algorithme LMS donné par: W k+1 =W k − 1 2 λ∇[ε 2 (n)] =W k +λS k ε k (2.11) L’adaptation qui assure la convergence en moyenne quadratique la plus rapide est donnée par 2 : λ opt = 2 p.σ 2 (s) (2.12) Avecσ 2 (s)lavariance du signal d’entrée. On remarque que la convergence de l’algorithme LMS dépend de la statistique du signal d’entrée. Pour les signaux non stationnaires, il est difficile de suivre les variations du signal d’entrée avec l’adaptation du filtre par l’algorithme LMS et cela donne une convergence lente. D’où l’algorithme des moindres carrés récursif. 2.2.3 Algorithme des Moindres Carrés Récursif [1]&[14] Cet algorithme, leRecursive Least SquaresRLS, permet de suivre les signaux non stationnaires tout en ayant une vitesse de convergence convenable. Ici, au lieu de minimiser un critère statistique établi sur l’erreur commise en estimant un signal, on minimise, à chaque itération la somme des carrés des erreurs commises depuis l’instant initial. Dans ce cas,Γ(W)serait donné par 1 S k représente le vecteurS(n)à lak ieme itération etε k l’erreur(c’est un scalaire)ε(n)après le même nombre d’itérations. 2 Avec l’hypothèse d’unbruit blancen entrée 28 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF Γ(W) = 1 k ∑ k n=0 ε 2 (n)mais vu que cela n’affecte pas le critère de minimisation, on prendra plutôt: Γ(W) = k ∑ n=0 ε 2 (n)(2.13) La réponseWdu filtre adaptatifest donc fonction des échantillons disponibles et non d’une moyenne statistique générale. Cela est très capital et constitue le noyau de cet algorithme. Par analogie avec le filtre de Wiener on aura les relations 3 : R ss k W k =R sy k (2.14) AvecR ss k = ∑ k n=0 S n .S T n etR sy k = ∑ k n=0 S n .y(n). La réponse impulsionnelle du filtre sera donc modifiée à chaque itération. Pour limiter le nombre des calculs, l’équation à utiliser, et qui constitue l’algorithme RLS, est la suivante: W k+1 =W k +R −1 ss k S k ε k (2.15) Et dans cette formule, le calcul deR −1 ss k se fait par: R −1 ss k = 1 δ [R −1 ss k−1 − R −1 ss k−1 .S T k .R −1 ss k−1 δ+S T k .R −1 ss k−1 .S k ](2.16) AvecR ss 0 = 1 δ .I p avecI p matrice unité de dimensionp×p,δ∈]0,1[etW 0 ≡vecteur nul de dimensionp. Cet algorithme converge plus vite que le LMS mais est plus difficile à mettre au point. Un palliatif à cette difficulté de mise en application est l’algorithme dit NLMS. 2.2.4 Algorithme LMS Normalisé (NLMS) [1]&[6] LeNormalized Least Mean Squaredit NLMS pallie à la complexité du RLS et, de manière directe et plus globale, à l’inadaptation du coefficient d’adaptation de l’algorithme LMS (Problème soulevé à la fin du paragraphe sur l’algorithme LMS). Cet algorithme consiste à normaliser le coefficient 3 C’est logique car les développements sontformellementidentiques 29 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON d’adaptationλdu LMS en prenant en compte l’énergie du signal d’entrée, ce qui réduit au minimum l’effet de l’influence de la variation de la puissance du signal. Cela rend la vitesse de convergence plus ou moins uniforme en passant d’une itération à l’autre. Donc on aura la même formule d’itération que celle donnée pour l’algorithme LMS par l’équation 2.11, à la différence près que le coefficient d’adaptation est ainsi normalisé: λ k = λ S T k .S k +β (2.17) Par conséquent, l’algorithme NLMS est donné par l’équation: W k+1 =W k + λ S T k .S k +β .S k ε k (2.18) βest un facteur permettant de suivre rapidement les variations de l’énergie dans le signal d’entrée. La convergence de cet algorithme est garantie siλ k ∈]0, 2 λ pro max [. L’intérêt de cet algorithme par rapport au LMS est qu’il est indépendant à la variance du signal d’entrée. Il faudra toutefois noter qu’ici aussi il y a dépendance de la convergence de l’algorithme à la statistique du signal d’entrée car la distribution des valeurs propres de la matrice d’autocorrélation du signal n’est pas modifiée. Pour les signaux stationnaires (lebruit blancpar exemple) ou non-stationnaires (signal deparole par exemple), le NLMS apporte une amélioration significative du taux de convergence suite à la normalisation. En ce qui concerne la mise en œuvre, cet algorithme est plus complexe que le LMS mais en pratique il fait partie des plus simples et plus efficaces algorithmes d’adaptation. 2.2.5 Algorithme Proportionné Normalisé (PNLMS)[1] Cet algorithme, le PNLMS, spécialement adapté à l’annulation d’écho, fait l’adaptation avec un taux de convergence variable. Il a plus d’opérations que le NLMS mais converge plus vite; il découle du NLMS en remplaçant leλ k par: λ k = λG k S T k .G k .S k +β (2.19) 30 sur 84 2.2. QUELQUES ALGORITHMES DE FILTRAGE ADAPTATIF AvecG k =diag[g k (0),···,g k (p−1)]qui est une matrice diagonale de typep×p. Et chaque fois,g k (n) = γ k (n) 1 p ∑ p−1 m=0 γ k (m) oùγ k (n) = max{ρν k ,|w k (n)|},n∈ {0,···,p−1}et ν k = max{δ,|w k (0)|,···,|w k (p−1)|}. Les termesρetδvalent respectivement 5 p et10 −2 . Donc l’algorithme PNLMS est donné par: W k+1 =W k + λG k S T k .G k .S k +β ·S k ε k (2.20) Néanmoins, sous certaines conditions dont ladispersivité de la réponse du filtre adaptatif, le PNLMS devient moins rapide que le NLMS. La solution à ce problème est la combinaison de ces deux algorithmes. D’où l’algorithme nomméPNLMS++. 2.2.6 Algorithme PNLMS++ [1] Cet algorithme est moins sensible aux variations de la réponses impulsionnelle du filtre. Il consiste à combiner les deux précédent comme suit: • Pour les itérations de numéro impair (kimpair), utilisation du PNLMS. • Pour les itérations paires, on utilise le NLMS. Puis en fin de compte on mélange les résultats pour retrouver le filtre optimal. L’algorithme ainsi défini est celui que nous utiliserons. Toutefois, il subira un certain nombre de modifications pour pouvoir devenir plus manipulable et plus optimal. Ces manipulations seront effectuées en faisant en sorte que les calculs puissent s’effectuer sur un processeur de traitement numérique des signaux sans oublier de prendre en compte le coût, la rapidité et la minimisation d’erreurs. Ainsi, nous devons chercher comment réaliser les opérations voulues en utilisant un processeur à virgule fixe, pour ne pas avoir à gérer les erreurs d’arrondissement introduites par une manipulation maladroite duprocesseur à virgule flottante, tout en réduisant le coût d’achat du matériel (le premier processeur étant moins cher que le second). Pour cela, une transformation tout à fait particulière nous sera utile; il faudra juste qu’elle ait les mêmes propriétés qu’une transformation de Fourier (surtout en ce qui concerne la convolution) et qu’elle rende les calculs 31 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON (le traitement) plus optimisé. On le réalise grâce à la transformation qui fait l’objet de la section qui suit. 2.3 Transformée en nombres entiers (NNT) [1] La transformée en nombres entiers a la même forme que la transformée de Fourier discrète mais la supplante en ce sens que la partie imaginaire n’existe plus dans cette nouvelle transformation. La racine primitive considérée dans cette dernière (l’exponentiel complexe) étant remplacée par la racineM ieme de l’unité dans le corps de Galois[2] 4 considéré. Soitαcette racine. Nous avons donc que 〈α M = 1〉 q (2.21) Avec〈·〉 q signifiant que le calcul est faitmodulo q, c’est-à-dire dans un corps de Galois d’ordreq. La formule précédente est celle qui sera chaque fois utilisée pour retrouver la racine primitiveαdès queMetqsont choisis. La transformée en nombres entiers de chaque termex n d’une séquence de longueurMest alors donnée par: X k =〈 M−1 ∑ n=0 x n α nk 〉 q (2.22) Si la longueur de la transforméeMet l’ordreqdu corps fini (sachant que tout corps fini est corps de Galois)[15]GF(q)sont premiers entre eux, il existe alors(M −1 ) 5 tel que〈M.M −1 ≡1〉 q (ceci signifie queM.M −1 est congru à1moduloq) et là l’inverse de la transformée existe siM|(q−1) (ça veut dire queMdiviseq−1), elle est donnée par: x n =〈M −1 M−1 ∑ k=0 X k α −nk 〉 q (2.23) La transformée en nombres entiers n’existe pas toujours; les conditions de son existence sont les suivantes: 4 Chaque fois le corps de Galois d’ordreqsera notéGF(q)selon la notation anglaise standard. 5 Des algorithmes de calcul rapide de l’inverse d’un nombre dans un corps fini existent et seront présentés dès que nécessaire. 32 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] • On doit avoir quepgcd(α,q) =pgcd(M,q) = 1ce qui implique que〈α M = 1〉 q (existence de la racine primitiveα). • Siqest premier, il faut nécessairement queM|(q−1). Sinonq= ∏ k i=0 p m i i etM|pgcd(p i −1,p j −1)∀(i,j)∈ {1,2,...} 2 . Aveci6=jetq= ∏ k i=0 p m i i représentant exactement la décomposition deqen facteurs premiers. • Il faut quepgcd((α i −1),q) = 1siiest un diviseur deM,∀i∈{1,2,...,M−1} 2.3.1 Choix des paramètres de la transformation et Transformée en nombres de Fermat (FNT) De même que pour la transformée de Fourier discrète, la transformée en nombres entiers demanderait un ordre deM 2 multiplications etM(M−1)additions. L’opération la plus complexe ici est évidemment la multiplication par des puissances de la racine unitéα. De cela découle qu’il est impérieux de faire un choix judicieux de cette racine pour réduire la charge de calcul des processeurs à utiliser (il est ainsi plus malin de choisirαpuissance de 2 pour remplacer toutes les multiplications par des décalages de bit). Le choix de l’ordreqdu corps de Galois dans lequel on choisit de travailler est aussi important pour une programmation plus optimale. Il est plus avantageux de prendre un ordreqégal àun nombre de Fermat. C’est-à-dire un nombre de la forme2 b + 1avecbune puissance de 2 car cela rend l’algorithme très optimal. On parle de latransformation en nombres de Fermat. Il s’agit d’une transformée en nombres entiers dans un corps d’ordre égal à un nombre de Fermat (il faut noter en passant que, seuls les 5 premiers nombres de Fermat sont premiers). Ainsi on a queq= 2 2 t + 1avect∈N. Cette transformée est celle que nous utiliserons vu qu’elle rend nos algorithmes plus optimisés. 2.3.2 Transformation en nombres de Fermat et arithmétique binaire Nous devons analyser la transformation sous cet angle (sous l’angle de l’arithmétique binaire) car cela permet de rester dans notre contexte vu que nos calculs seront exécutés par un processeur numérique fonctionnant sous le même principe. Une FNT (Fermat Number Transform) de longueur quelconqueM= 2 t+1 a juste M 2 log 2 M 33 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON multiplications etMlog 2 Madditions. Nous voyons à quel point il est intéressant de travailler dans un corps de Galois ayant un ordreqégal à un nombre de FermatF t . Le terme générateurα étant aussi essentiel à la réduction de la complexité de calcul, le choix d’unαdifférent d’une racine primitive (contrairement aux indications du début) mais égal à une puissance de2est intéressant en arithmétique binaire pour réduire la charge de calcul en cas de multiplication. Les longueurs possibles sont alors données parM= 2 t+1−i et〈α= 2 2 i 〉 F t avec évidemment(i,t)∈N 2 tel que 06i < t.La longueur de séquence étant égale à une puissance de 2,〈M −1 =−2 2 t −1−(t−i) 〉 F t car en effet, 〈F t −1 = 2 2 t ≡−1〉 F t 〈2 2 t ·2 −(t−i+1) ≡−2 −(t−i+1) 〉 F t 〈M −1 = 2 −(t+1−i) ≡−2 2 t −1−(t−i) 〉 F t (2.24) D’où les formules de transformation seront données, à la lumière des relations 2.22 et 2.23, par: X k =〈 2 t+1−i −1 ∑ n=0 x n ·2 〈2 i nk〉 M 〉 F t x n =〈−2 2 t −1−(t−i) 2 t+1−i −1 ∑ k=0 X k ·2 〈−2 i nk〉 M 〉 F t (2.25) On peut doubler la longueur des séquences tout en conservant unαpuissance de2. Pour cela il suffit de poser quei=−1. Ainsi la racineαest solution de la relation de congruence〈α 2 = 2〉 F t . Donc, α 2 =〈2 = (−1)·2·(−1) =−2·(−1)〉 F t =〈−2·2 2 t = 2 2 t−1 (1−1−2·2 2 t−1 )〉 F t =〈(2 2 t−2 ) 2 ((2 2 t−1 ) 2 −2·2 2 t−1 + 1 2 )〉 F t =〈(2 2 t−2 (2 2 t−1 −1)) 2 〉 F t 34 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?] Par conséquent,α≡ √ 2a un sens et existe dans le corps de GaloisGF(q)≡GF(F t )si et seulement sit≥2car du développement précédent on tire clairement que: 〈α≡ √ 2 = 2 2 t−2 ·(2 2 t−1 −1)〉 F t (2.26) Donc,( √ 2 n ) =    〈2 n 2 〉 F t pournpair 〈2 n−1 2 ·2 2 t−2 (2 2 t−1 −1)〉 F t sinon . Commecette transformation admet que la transformée du produit de convolution de deux séquences est égale au produit simple(terme à terme) des transformées des séquences convoluées, elle requiert Mlog 2 Mopérations simples (décalage de bit, additions) etaucune multiplication. Cela est génial vu que comparativement, la transformée de Fourier discrète requiert, hormis les opérations simples, un nombre de multiplications complexes de l’ordre de M 2 log 2 M 2 . 2.3.3 Version rapide de la FNT De même qu’il existe une version rapide de la transformée de Fourier (la FFT comme dit au premier chapitre), il en existe aussi une pour la transformée en nombres de Fermat. Le principe est le même etc’est la même chose du point de vu formel. Il consiste à diviser la séquence en 2 séquences plus petites, ce qui réduit la complexité des calculs. L’implantation de cet algorithme sur un processeur de calcul porte le nom d’implantation Butterfly. Une transformée en nombres de Fermat de dimensionM= 2 n avec0≤n≤b= 2 t peut être calculée en utilisant le principe de l’algorithme FFT de la manière suivante: 〈X k = M−1 ∑ n=0 x n α nk = M 2 −1 ∑ n=0 x 2n α 2nk + M 2 −1 ∑ n=0 x 2n+1 α (2n+1)k 〉 F t 〈X k = M 2 −1 ∑ n=0 x 2n α 2nk +α k M 2 −1 ∑ n=0 x 2n+1 α 2nk =G k +α k H k 〉 F t (2.27) Avec évidemmentG k etH k des vecteurs représentant respectivement les transformées en nombres de Fermat des séquences{x 2n } M 2 −1 n=0 et{x 2n+1 } M 2 −1 n=0 de longueur M 2 . Comme〈α M = 1〉 F t ⇒〈α k+ M 2 =−α k 〉 F t car〈α M = 1 = (−1) 2 = (α M 2 ) 2 〉 F t . 35 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON En fin de compte,    X k =G k +α k H k X k+ M 2 =G k −α k H k k∈[0, M 2 −1]⊂N. Ce découpage de la séquence en 2 parties égales peut être repété pour décomposer la transformée de longueurM= 2 b en{4,8,···, M 2 parties. Toute FNT peut ainsi être calculée grâce àlog 2 (2 b ) =b décompositions. Comme Mb 2 transformées de longueur de séquenceM= 2. Il faudra à chaque étape 2 opérations simples et une multiplication. D’où le total exigeraMlog 2 M additions et M 2 log 2 Mmultiplications pour réaliser une FNT. 2.3.4 La convolution rapide Le calcul de convolution de deux séquences deMéchantillons exige l’application de3transformées en nombre entiers de longueur2M, les séquences étant étendues par des zéros. Soit deux séquences de longueurMchacune donnée par{x(n)} M−1 n=0 et{h(n)} M−1 n=0 , la convolution de ces deux séquences par le principe de la convolution rapide consiste à procéder de la manière suivante: Algorithme 1 (Convolution rapide par NNT)• Formation de deux séquencesx 1 etx 2 à partir de la séquence{x(n)} M−1 n=0 par:                x 1 (n) =    x(n)0≤n < M 2 0 M 2 ≤n < M x 2 (n) =    0M≤n < M 2 x(n) M 2 ≤n < M • Définirh 1 eth 2 de manière identique. • Calculer les transformées en nombres de Fermat des séquences ainsi construites. SoientX 1 ,X 2 ,H 1 etH 2 les transformées correspondant respectivement aux séquences construites ci-haut. Ne pas oublier que: X(k) =〈X 1 (k) +X 2 (k)〉 F t et idem pourH(k)(2.28) • Former trois nouvelles séquences notées{U},{V}et{W}de la manière suivante: 36 sur 84 2.3. TRANSFORMÉE EN NOMBRES ENTIERS (NNT) [?]          U(k)=〈H(k)•X(k)〉 F t V(k)=〈H 1 (k)•X 1 (k)〉 F t W(k) =〈H 2 (k)•X 2 (k)〉 F t avec le•représentant une multiplication terme à terme des séquences. • Calculer les transformées inverses de ces dernières séquences. Elles seront notées:u(n), v(n)etw(n)respectivement. • Soity=x∗hle résultat de la convolution des séquencesxeth. On aura enfin que: y(n) =                v(n)pour0≤n < M 2 〈u(n)−w(n)〉 F t pour M 2 ≤n < M 〈u(n−M)−v(n−M)〉 F t pourM≤n < 3M 2 w(n)pour 3M 2 ≤n <2M A la différence du calcul de convolution usuel qui demande dans le pire des cas 3 transformées en nombres entiers de longueur2M, cet algorithme exige plutôt7transformées de longueurM et cela est plus avantageux en terme de minimisation du nombre d’opérations complexes (les multiplications). 2.3.5 Multiplication optimale des matrices [8] Le produit de deux matrices représente le plus souvent une charge de calcul assez importante. Une méthode qui a des performances nettement supérieures à celles de la méthode usuelle, surtout pour des matrices de grande dimension, existe et consiste à transformer la multiplication des matrices en un produit de convolution (convolution des séquences composées des coefficients des deux matrices). Ce dernier pouvant finalement être rapidement et facilement calculé grâce aux algorithmes de calcul rapide du produit de convolution dont celui présenté à la section précédente, après une FNT calculée suivant ce qui est montré à la section 2.3.3. Algorithme 2 (Multiplication rapide des matrices)SoientA(a ij )etB(b ij )deux matrices carrées de dimensionM. Leur produitC(c ij )peut s’écrire sous forme polynomialeR(x) =P(x)Q(x), les coefficients dePetQétant trouvés respectivement par: 37 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON    p i+jM =a ij q M(M−1−i+jM) =b ij Avec0≤i,j < Met tous les coefficients non définis égaux à0. Et par multiplication simple des polynômes ou par convolution 6 des séquences qui sont constituées respectivement par les coefficients dePetQon trouveR(x). Les coefficients du produit deAetB sont alors donnés par: c ij =r M 2 −M+i+jM 2 Une convolution faite après FNT tout en appliquant les méthodes rapides et optimales mentionnées dans les parties précédentes permet de réaliser le produit des matrices avec moins deM 3 opérations complexes (multiplications) comme c’est le cas pour une multiplication par la méthode classique. Cette manière de faire sera très utile pour la suite car, avec ce qui est introduit à la section suivante on se rend copte qu’on aura plus besoin de manipuler régulièrement des matrices et des produits de convolution. 2.4 Traitement par bloc des algorithmes d’annulation d’écho 2.4.1 Introduction L’annulation d’écho sera réalisée par un filtre adaptatif. Le filtre à utiliser se doit d’être le plus rapide (vitesse de convergence) et le moins complexe (complexité de calcul) possible. Le filtre PNLMS++tel que présenté précédemment est le candidat idéal à ces deux exigences. Nous n’allons plus nous intéresser à l’adaptation des coefficients du filtre à chaque itération comme dans les paragraphes précédents car cela représente une charge assez importante en terme de calcul et de mémoire.L’algorithme sera plutôt modifié de manière à l’optimiser au maximum tout en conservant les traitements appliqués aux données (séquences). Pour cela, l’adaptation sera effectuée plutôt chaque aprèsNtermes de la séquence considérée. Il faudra néanmoins noter que, bien que cette méthode est très avantageuse quant à la réduction 6 Une multiplication des polynômes est équivalente à un produit de convolution des séquences formées par les coefficients des dits polynômes rangés selon le degré croissant. 38 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO du nombre de multiplications, elle a le défaut d’accroître considérablement le nombre d’opérations simples (les additions et les décalages de bit). Pour palier à cet inconvénient et rendre les algorithmes encore plus efficaces, on applique une méthode dite dusliding généraliséqui permet d’éviter plus particulièrement certaines redondances dans les calculs, rendant ainsi les algorithmes plus optimisés (cela pourra être pris en compte lors de l’implantation des algorithmes et non au cours de cette présentation théorique). Prenant toujours référence à la section sur les filtres adaptatifs, nous devons définir certains concepts vu que les quantités qui étaient auparavant des scalaires à chaque adaptation deviennent alors des vecteurs. Etant donné que l’adaptation survient chaque aprèsNéléments de la séquence considérée, tous les blocs (sauf éventuellement le dernier) contiennentNtermes pris dans l’intervalle [kN,kN+N−1]aveckdésignant le numéro du bloc (de l’itération). Les termes de bloc sont donc les suivants: y k = ( y(kN)y(kN+ 1)···y(kN+N−1) ) T y w k = ( (y w (kN)y w (kN+ 1)···y w (kN+N−1) ) T ε k =y k −y w k = ( ε(kN)ε(kN+ 1)···ε(kN+N−1) ) T S k = ( s(kN)s(kN+ 1)···s(kN+N−1) ) T . La définition que nous venons de donner pourS k est plus valable si on se base sur une compréhension brute du concept des blocs. Néanmoins, une manière plus pratique de la définir est de poser qu’elle vaut :S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T , ainsi on prend également en compte la longueur du filtre (pour notre cas, le filtre est de longueurp). La sortie qui est obtenue par convolution du signal en entréeS(n)par la réponse impulsionnelle du filtre sera finalement écrite de manière globale sur le bloc comme suit: y w k =         s(kN)s(kN−1)···s(kN−p+ 1) s(kN+ 1)s(kN)···s(kN−p+ 2) . . . . . . . . . s(kN+N−1)s(kN+N−2)···s(kN+N−p)                 w k (0) w k (1) . . . w k (p−1)         =R k W k 39 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON AvecR k unematrice de Toeplitzde taillep×Netpla longueur du filtre comme mentionné au premier chapitre. Tout en considérant qu’un terme notéw k (n)correspond, à la lumière de la notation du premier chapitre, au coefficientw n du filtre à lak ieme itération. 2.4.2 Algorithmes proprement-dits [1] Pour le cas le plus simple,algorithme LMS par blocsnotéBLMS(Bloc Least Mean Squares), l’erreur quadratique calculée sur un bloc de données sera donnée par:ε T k ε k au lieu deε 2 (n) comme c’était le cas auparavant. Ce qui est évident vu que c’est une généralisation de la fonction élévation au carré. Sachant queS(j)répond à sa définition donnée à la fin du premier chapitre, les coefficients du filtre seront mis à jour grâce à: W k+1 =W k − 1 2 λ∇(ε T k ε k ) =W k − 1 2 λ ∂(ε T k ε k ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (ε(j)) 2 ) ∂W k =W k − 1 2 λ ∂( ∑ (k+1)N−1 j=kN (y(j)−S(j) T W k ) 2 ) ∂W k =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN (y(j)−S(j) T W k )(S(j) T )} =W k − 1 2 λ{−2 (k+1)N−1 ∑ j=kN S(j)ε(j)} =W k +λR T k ε k Et la formule ainsi obtenue peut être réécrite sous la forme d’une convolution car: R T k ε k = (k+1)N−1 ∑ j=kN S(j)ε(j)} ⇒(R T k ε k ) i = (k+1)N−1 ∑ j=kN ε(j)s(j−i) =ε(i)∗s(−i) 40 sur 84 2.4. TRAITEMENT PAR BLOC DES ALGORITHMES D’ANNULATION D’ÉCHO Avec0≤i≤(p−1)pour ne pas dépasser la longueur du filtre et∗le produit de convolution discrète. Les éléments du vecteur d’erreurε k de longueurN, lesε(kN+m)avec0≤m≤N−1peuvent également être exprimés sous forme d’une convolution car on sait que: ε(kN+m) =y(kN+m)−y w k (kN+m) =y(kN+m)− p−1 ∑ i=0 w k (i)s(kN+m−i) =y(kN+m)−w k (m)∗s k (m) Avecs k (m)désignant le terme numéromdans le bloc numérokdu signal d’entrée. Dans ce qui précède il faut remarquer que normalement la convolution a été arrêtée à la longueur du filtre (p). Les deux manipulations qui précèdent seront perpétuées partout où cela sera possible, pour transformer les expressions sous la forme de produit de convolution afin d’appliquer toutes les belles propriétés de la convolution discrète, en terme de réduction du temps de calcul principalement, par utilisation de la transformée rapide (en nombres de Fermat pour notre cas). Grâce au même raisonnement, nous pouvons obtenir les formules de mise à jour des coefficients du filtre pour tous les autres algorithmes. L’algorithme qui nous intéresse étant lePNLMS++, à cause de ses propriétés présentées au premier chapitre, la version par blocs (le BPNLMS++) sera donnée par: • Pour la partie paire (correspondant auBNLMS), W k+1 =W k + λ R ss (k) +β (ε k ∗S −k )(2.29) AvecR ss (k)la fonction d’autocorrélation du signal, soitS k ∗S −k . • Pour la partie impaire (correspondant auBPNLMS), W k+1 =W k + λG k G k R ss (k) +β (ε k ∗S −k )(2.30) AvecS −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T 41 sur 84 CHAPITRE 2. ÉTUDE THÉORIQUE DU FILTRAGE DU SON Dans la mise en oeuvre pratique de ces algorithmes, tous les éléments seront adaptés de manière à avoir des formes correctes (par ajout des zéros aux vecteurs le nécessitant et suppression de l’erreur ainsi introduite, à la fin des calculs). REMARQUES: Il faudra impérativement noter que les formules ici mentionnées, qui de toute évidence correspondent respectivement au processus de mise à jour des coefficients du filtre dans le cadre duBNLMSet duBPNLMS, ne sont que formelles.En effet, au sens mathématique strict elles ne seront pas valables au vu des dimensions des termes (pour s’en convaincre, il faut noter qu’après formatage des résultats,R ss (k)est de taillep×1,on ne prend que sespderniers termes, donc on ne peut pas l’additionner àβqui est un scalaire mais aussiG k étant une matrice de taillep×p, on aura aussi queG k R ss (k)est de taillep×1et donc même conclusion).Cette notation formelle signifie juste que, pour chaque itération, on calculer le vecteur de taillepdu numérateur et l’autre du dénominateur et le termew k (i)correspondra au résultat obtenu en appliquant la formule mais ayant considéré uniquement les termes numéroide chaque vecteur présent (au numérateur et au dénominateur).Nous y revenons plus clairement lors de l’élaboration de l’algorithme. 2.5 Conclusion partielle Ce chapitre a abordé le processus de filtrage numérique de manière à converger vers un filtre bien adapté à l’annulation d’écho sonore. L’algorithme choisi et adapté pour cet effet est lePNLMS++ qui est comme une synthèse des avantages de divers algorithmes conçus pour la cause précisée. Néanmoins, envisager une implantation plus optimale sur les processeurs de traitement du signal, nous permet de remarquer l’utilité d’introduire la transformée en nombres de Fermat, qui permet de réduire la consommation en ressources qui serait inutilement énorme en cas d’un traitement numérique classique. Le traitement dans le domaine de Fermat, allié à une manipulation des séquences par bloc de données, permet de réduire de manière assez sensible la complexité de calcul des algorithmes mis au point. L’introduction de la transformation en nombres entiers, nous est d’une importance capitale car c’est sur base d’elle que seront écrits, en langage de programmation dédié, nos algorithmes, si on veut les embarquer. 42 sur 84 Chapitre 3 CONCEPTION DU FILTRE MIXTE ADAPTÉ 3.1 Introduction partielle Ce chapitre vient clore notre travail. Nous envisageons y présenter sommairement les éléments qu’il serait normalement nécessaire de concevoir pour réaliser un système de traitement numérique complet du signal. Toutefois, étant donné que notre travail consiste juste à élaboré le filtre, nous nous limiterons, pour les autres blocs de traitement du signal, à la description du minimum nécessaire pour comprendre l’ensemble. Ça veut dire que nous ne concevrons pas les autres parties, sinon nous nous serons totalement écarté du cadre de ce travail. Nous allons considérer que le reste est un acquis à ajuster seulement à la partie concernant le traitement que nous allons élaborer et implémenter sousMatlab. 3.2 Structure globale du système Notre système fonctionne selon la procédure classique de traitement du signal. De ce fait, il sera constitué des blocs habituels. C’est ainsi que la structure globale du système est telle que représenté sur la figure qui suit: 43 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.1: Chaîne typique de traitements du signal On y remarque que minimalement, un système de traitement complet devra contenir des éléments qui réalisent ces5étapes. A l’arrivée du signal il sera d’abord adapté au système, d’où le filtre anti-repliement. Ensuite, comme le traitement est numérique, il sera converti sous forme binaire par le Convertisseur Analogique-Numérique. Par après il subira un traitement adéquat (le filtrage numérique pour notre cas), puis la reconversion sous forme analogique grâce au convertisseur Numérique-Analogique. Finalement, on terminera la mise en forme du signal en le lissant grâce au filtre de lissage. 3.2.1 Filtre anti-repliement Le filtre anti-repliement est nécessaire pour faire respecter le théorème de Shannon, il évite le repliement de spectre auquel on assiste normalement si la condition de Nyquist-Shannon est violée par sous-échantillonnage (c’est-à-dire si la fréquence d’échantillonnage est inférieure au double de la fréquence maximale du signal échantillonné). Ce phénomène est pourtant de règle et n’est en rien une exception vu que normalement, les signaux réels ne sont jamais, stricto sensu, à support fréquentiel borné. Donc, les spectres réels s’étendent toujours jusqu’à l’infini (l’amplitude du signal tendant bien sûr vers0sans jamais s’annuler). Par conséquent, la condition de Nyquist-Shannon ne peut jamais être strictement respectée pour un signal réel. D’où l’importance d’un filtre anti- repliement. Le filtre n’est en effet qu’un passe-bas permettant de limiter la fréquence maximale prise par le signal à traiter pour que nous soyons sûr de choisir une fréquence d’échantillonnage valable (valeur non infinie). 44 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.2: Absence de repliement[7] Figure 3.3: Présence de repliement[7] Il est donc indispensable d’intercaler un filtre anti-repliement avant le convertisseur permettant le passage de l’analogique au numérique. C’est un filtre analogique passe-bas de fréquence de coupureFe/2(dans l’idéal). En pratique, le filtre passe-bas parfait n’existe pas et le repliement du filtre numériquef > Fe 2 est partiellement éliminé. La qualité se paie par l’utilisation d’un filtre anti-repliement élaboré (ordre élevé).[16] Ce filtre passe-bas doit avoir les caractéristiques suivantes: [12] 45 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ - Fréquence de coupure égale àF max ; - Variations de gain minimales dans la bande passante ; - Pente la plus raide possible après la coupure (Ordre élevé); - Atténuation hors bande passante adaptée au nombre de bitsnde la numérisation. En effet, les signaux parasites au-delà deF max vont être atténués par le filtre anti-repliement et se retrouver dans la bande du signal. Pour que ces parasites repliés ne soient pas gênant, il suffit que leur niveau soit suffisamment faible c’est à dire d’un niveau inférieur à la résolution du convertisseur analogique-numérique. En conclusion, le filtre anti-repliement ne supprime pas le phénomène de repliement, mais atténue le signal replié au point de le rendre négligeable. 3.2.2 Convertisseurs Analogique-Numérique et Numérique-Analogique Depuis une trentaine d’années, le traitement numérique des données prend le pas sur les approches purement analogiques. Le recours au numérique permet en effet un stockage aisé de l’information, une excellente reproductibilité des traitements, la possibilité de développer relativement aisément des fonctionnalités complexes, une réduction des coûts de production, etc. L’interface nécessaire entre le monde analogique et un traitement numérique donné est réalisé par des convertisseurs analogique–numérique (CAN, ouADCpourAnalog to Digital Converteren anglais) et numérique–analogique (CNA, ouDACpourDigital to Analog Converter). Le rôle d’un CANest de convertir un signal analogique en un signal numérique pouvant être traité par une logique numérique, et le rôle d’unCNAest de reconvertir le signal numérique une fois traité en un signal analogique.[18] Pour réaliser laconversion analogique-numérique, trois opérations sont nécessaires. Il s’agit, par ordre d’apparition, de l’échantillonnage, de la quantification et du codage. L’échantillonnage du signal doit être fait en tâchant de respecter le théorème de Shannon.Le processus est clairement illustré grâce à la figure qui suit: 46 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME Figure 3.4: Echantillonnage-Quantification-Codage[18] On distingue deux grandes familles de CAN basées sur deux approches différentes du processus d’échantillonnage : lesCAN classiquesdont la fréquence d’échantillonnage est telle que le spectre du signal converti occupe quasiment toute la bande de Nyquist (Nyquist Rate ADC) et les CAN à sur-échantillonnage (Oversampling ADC) dont seule une partie réduite du bruit de quantification (erreur de quantification) affecte le signal converti.[18] Si la fréquence d’échantillonnage est bien choisie, la seule erreur introduite au cours du processus de numérisation résulte de l’approximation faite en codant un nombre infini de valeurs analogiques par un nombre fini2 n de niveaux binaires. Le numérique n’est donc évidemment pas parfait, seulement on peut, en augmentant le nombre de bitsn, diminuer autant qu’on veut l’erreur introduite par la numérisation. Avec , comme objectif, de maintenir l’erreur de quantification en dessous du seuil de sensibilité de l’oreille humaine. Plus le nombre de bits augmente, plus le rapport signal sur bruitSNRs’améliore.[12] Après cette transformation, les données se dirigent vers un processeur de traitement numérique. Un traitement fait en virgule fixe est de toute évidence la plus indiquée pour être plus optimal. Il doit être considéré en cas d’implantation des algorithmes sur DSP vu que les ressources sont limitées. Le convertisseur numérique-analogique permet de communiquer d’un système numérique vers un système analogique. Il convertit donc un nombre binaire en une tension (ou un courant) qui lui est proportionnel. L’entrée est numérique et se note formellementN= (b n−1 ...b 1 b 0 ) 2 avec lesb i ∈{0,1},Nl’entrée numérique etnla résolution numérique (nombre de bits). La sortie est analogique et dans un premier temps, la conversion analogique-numérique se fait simplement paru S =Nq+u S min avec u S la tension à la sortie du convertisseur etqlequantum ou résolution analogique(en Volts).[17] 47 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Par ce qui précède on aura de toute évidence une sortie discrète du fait que les conversions sont réalisées à chaque arrivée d’un échantillon. Pour pallier à cela, le CNA a un système permettant le maintient de la tensionu S en sa sortie, jusqu’à l’arrivée d’un nouvel échantillon. On obtient alors en sortie, unsignal analogique en escalier. Il a ainsi un spectre fréquentiel comportant des fréquences supérieures à la fréquence maximale du signal de base. Cela est dû aux changements brusques observées pour une forme en escaliers. Il est par conséquent important delisserce signal en supprimant les composantes de fréquence élevée pour obtenir finalement un signal à variations majoritairement moins brusques et/ou plus proche du signal analogique désiré. 3.2.3 Filtre de lissage C’est le dernier élément de la chaîne de traitement du signal. Comme dit dans la section précédente, il permet de lisser le signal en escalier qu’on obtient à la sortie du CNA. Le lissage se fait par suppression des fréquences supérieures à la fréquence maximale du signal d’entrée (moitié de la fréquence d’échantillonnage). Il s’agira donc d’un filtre passe-bas comme pour le premier élément de la chaîne (filtre anti-repliement). On en illustre l’importance grâce aux figures qui suivent [18] : Figure 3.5: Positionnement du filtre de lissage Figure 3.6: Processus complet de conversion N/A (signaux associés) 48 sur 84 3.2. STRUCTURE GLOBALE DU SYSTÈME 3.2.4 Traitement Une fois les données numérisées, elles sont finalement traitées. Le traitement se passe dans un processeur de traitement numérique. Il existe une multitude de processeurs, et également un grand nombre d’architectures utilisées. Néanmoins, certains processeurs sont optimisés pour le traitement du signal. Il s’agit desDSP(Digital Signal Procesing) dont on a sommairement parlé dans les parties précédentes. LeDSPest un microprocesseur optimisé pour exécuter des applications de traitement numérique du signal (filtrage, extraction des signaux, etc.) le plus rapidement possible. Ils sont utilisés dans la plupart des applications du traitement numérique du signal en temps réel. On les retrouve ainsi dans les modems, les téléphones mobiles, les appareils multimédia, les récepteurs GPS, les chaînes de traitement de son,... En bref, partout où l’on reçoit un signal complexe que l’on doit modifier à l’aide du filtrage. UnDSPfournit des instructions usuelles comme la multiplication, l’addition, la soustraction, etc. Mais son jeu d’instructions est élaboré de manière à exécuter des opérations très courantes dans des algorithmes de traitement du signal les plus usuels. Des nombreux algorithmes de traitement du signal ont par exemple besoin d’effectuer rapidement des multiplications suivies d’une addition. LesDSPaccélèrent ces genres de calcul en fournissant des instructions capables de multiplier deux nombres et d’en additionner un troisième en une seule fois (en un cycle d’horloge). CertainsDSParrivent même à réaliser plusieurs opérations complexes de ce genre en un seul cycle d’horloge. La majorité desDSPcalculent exclusivement avec des nombres à virgule fixe. L’absence d’unité en nombre flottant rend le composant meilleur marché tout en permettant une grande vitesse de traitement des données. CertainsDSPpossèdent cependant des unités de calcul en virgule flottante pour des applications exigeant une large dynamique des valeurs ou une grande précision relative des résultats. Ils peuvent être combinés avec d’autres composants dans le même boîtier. C’est ainsi par exemple qu’on a, dans un même, leDSPet les convertisseurs (Convertisseur Analogique- NumériqueetNumérique-Analogique).Dans un appareil équipé d’un DSP, la vitesse d’exécution des calculs dans ce dernier est généralement la partie déterminante de la vitesse d’exécution du travail effectué par la machine.[19] 49 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Au vu de ce que nous venons de montrer dans le paragraphe précédent, leDSPest la solution indiquée pour un système embarqué complet. Pour notre cas, sachant que nos ordinateurs sont équipés des processeurs assez rapides qui arrivent à réaliser le traitement des données avec une vitesse suffisante pour que nous testions de fonctionnement réel de notre système, nous réaliserons dans un premier tempsnotre système en nous servant de l’ordinateur. Les caractéristiques utiles de ce dernier sont précisées dans la section traitant de l’élaboration de l’algorithme. Il s’avère alors indubitable que, comme le traitement que nous mettons au point est un filtrage, avec comme objectif l’annulation d’écho sonore, cette partie (le traitement) suffit pour tirer des conclusions pertinentes sur le système et pour envisager (projet à long terme selon la demande ou le besoin) finalement une production du matériel conçu selon ce travail. Donc, le filtre anti- repliement et autres éléments de la chaîne de traitement du signal ne seront pas conçus par nous mais nous nous servirons de ceux de la carte son de l’ordinateur (pour le test du fonctionnement) et ceux qui seraient couplés au boîtier du DSP (en cas de production matérielle). 3.3 Élaboration de l’algorithme et présentation du système Nous allons réaliser l’annulation d’écho par utilisation de l’algorithmeBPNLMS++, les coefficients seront donc réinitialisés selon le principe illustré par les formules 2.29 et 2.30 AvecS k etS −k définis respectivement par S k = ( s(kN−p+ 1)s(kN−p+ 2)···s(kN+N−1) ) T et S −k = ( s(kN+N−1)s(kN+N−2)···s(kN−p+ 1) ) T . Les deux sont tous de longueurN+p−1prenant directement en compte la longueurpdu filtre ainsi que la tailleNdes blocs d’échantillons. Ce qui précède nous fait immédiatement remarquer que les deux vecteurs ont les mêmes termes mais arrangés en ordre inverse. Mathématiquement, ça correspond à dire queS −k s’obtient en multipliantS k par une matrice carrée de dimensions adéquates et dont tous les termes sont nuls sauf la diagonale secondaire qui sera totalement constituée des1. 50 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 3.3.1 Élaboration de l’algorithme d’apprentissage Soit à utiliser un processeur à16bits, ce qui correspond au dernier nombre premier de Fermat, le cinquième pour être exact. En effet, si nous choisissonsb= 16, ça veut dire que dans la forme canonique des nombres de Fermat introduits à la sous-section 2.3.1 nous avons quet= 4, soit donc que le nombre de Fermat en question est2 2 4 + 1 = 2 16 + 1 = 65537 =F 4 . Ce choix est judicieux vu que nous comptons faciliter les calculs par transformée en nombres de Fermat (FNT), car là on a bel et bien un nombre de Fermat valable (un nombre premier en l’occurrence et en plus le plus grand nombre premier de Fermat connu). Aussi, étant donné ce que nous avons considéré à la sous-section 2.3.2, entre autres les définitions selon lesquellesM= 2 t+1−i et〈α= 2 2 i 〉 F t , en choisissant par exemplei=−2on obtient une longueur de transformationM= 128et〈α= 4 √ 2〉 F 4 = 4938. Voulant conserver le fait selon lequel on ne peut pas transformer une séquence de longueur supérieure à la longueurMde la transformée, nous devons faire remarquer que vu queS k etS −k sont de longueurN+p−1, on doit impérativement respecter la conditionM≥N+p−1ou alors prendre N+p−1< Mpour le compléter ensuite jusqu’à la longueurM. Alors, pour choix on peut prendre par exempleN= 64etp= 64(deux moitiés deM). Sur base de cela, nous aurons les étapes de l’algorithme : 1°)Acquisition et préparation du signal à manipuler; 2°)Écriture des fonctions qui réalisent la FNT et son inverse Après extraction du signal, nous pourrons être amenés à effectuer une transformée en nombres de Fermat sur le vecteur constitué des échantillons. Pour cela, nous devons réaliser ce qui suit: 1. Fonction réalisant la transformée de la séquence de longueur fixéeM; 2. Fonction réalisant la transformée inverse d’une séquence de longueur identique; 3°)Écriture d’une boucle devant réaliser l’apprentissage (adaptation du filtre) : 1. Fenêtrage d’un bloc de64échantillons du signal d’entrée; 51 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ 2. Construction globale du signal d’entrée à considérerS k en faisant précéder les64 échantillons dep−1derniers échantillons provenant du signalS k−1 ; 3. Vu qu’ainsi on aS k de longueurM= 128termes en le complétant, calcul de sa FNT par appel de la procédure correspondante; 4. Initialisation des coefficients du filtre (comme notre filtre est de longueurp= 64, nous prendrons pour filtre initial, un filtre dont tous les64termes sont tous nuls); 5. Complément des coefficients du filtre par des 0 par ajout deM−ptermes nuls pour obtenir un vecteur pouvant subir une FNT de longueurM; 6. Calcul de la FNT du vecteur ainsi formé par appel de la procédure correspondante; 7. Calcul du produit terme à terme de ces deux FNT précédemment obtenus (Transformée deW k complété multipliée par la transformée deS k ; 8. Calcul de la FNT inverse du produit obtenu par appel de la procédure dédiée (cela donne le produit de convolution des coefficients du filtre par le signal d’entrée. Donc on obtienty w k dont seuls lesNderniers termes correspondent auxNvrais échantillons formanty w k ; 9. Formatage dey w k par élimination desM−Npremiers termes inutiles. Pour cela, on multiplie une matrice de tailleN×Mdont lesM−Npremiers termes de chaque ligne sont tous nuls et l’autre partie est semblable à une matrice unitaire de tailleN(c’est-à- dire que tous ses termes diagonaux sont égaux à1) par le vecteury w k obtenu après la transformation inverse de l’étape précédente ; on obtient après cette multiplication, une matriceN×1qui correspond effectivement au vrai vecteury w k recherché; 10. Calcul du vecteur d’erreur par comparaison (une différence) de la valeur trouvéey w k avec la valeur désiréey k ; 11. Complément de ce vecteur par des 0 jusqu’à obtenir un vecteur de longueurMcar c’est bien cela la longueur de la transformée que nous avons choisi d’utiliser (on aura ajouté alorsM−Ntermes nuls); 12. Calcul de la FNT du vecteur d’erreur ainsi complété; 52 sur 84 3.3. ÉLABORATION DE L’ALGORITHME ET PRÉSENTATION DU SYSTÈME 13. Construction du vecteur imageS −k en multipliant le vecteurS k déjà bien formaté et complété par une matrice de tailleM(matrice carrée donc) dont tous les termes sont nuls à part ceux de la diagonale secondaire qui sont tous égaux à1. La multiplication de cette dernière matrice parS k a donc pour effet de renverser l’ordre de ses termes; 14. Calcul de la FNT de ce vecteur image; 15. Calcul du produit terme à terme de ce vecteur image transformé avec le vecteur d’erreur transformé; 16. Calcul de la transformée inverse du résultat ainsi obtenu (la réponse correspond au vecteurε k ∗S −k dont seuls lespderniers termes forment le vrai vecteur recherché; 17. Formatage du résultat obtenu en lui appliquant une matrice que nous nommonsE, de dimensionp×Mpour obtenir au final un vecteur de taillep. Pour cela on multiplie la matrice construiteEpar le résultat obtenu à l’étape précédente. Cette matrice en est en fait une dont lesM−ppremiers termes de chaque ligne sont nuls et l’autre partie est comme une matrice carré de taillep×pdont les termes de la diagonale principale sont tous égaux à1et les autres sont tous nuls (matrice unitaire de taillep); 18. Calcul du produit terme à terme du vecteur d’entréeS k transformé avec son vecteur imageS −k aussi transformé; 19. Calcul de la transformée inverse du précédent produit (cela nous permet d’obtenir la fonction d’autocorrélation du signal d’entréeR ss (k) =S k ∗S −k qui est aussi réduit à sespderniers termes en lui appliquant la matriceEcomme cela a été fait à l’étape17; 20. Construction de la matrice diagonaleG k de taillep×ptel qu’elle fut définie à la sous- section 2.2.5; 21. Calcul des vecteursG k .(ε k ∗S −k )etG k .R ss (k); 22. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBNLMS(tout en tenant compte de la dernière remarque de sur l’état formel des formules duBNLMSet duBPNLMS). On appliquera donc précisément 53 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ W k+1 (i) =W k (i) + λ [R ss (k)](i)+β [(ε k ∗S −k )](i) ; 23. Réinitialisation des coefficients du filtre en appliquant l’algorithmeBPNLMSen tenant également compte du fait que la formule s’exprime réellement par : W k+1 (i) =W k (i) + λ [G k R ss (k)](i)+β [G k (ε k ∗S −k )](i) ; 24. Construction du vrai vecteur des coefficients du filtre en prenant tous les termes impairs égaux aux termes impaires correspondants du vecteur trouvé à l’étape précédente et les termes pairs aux termes pairs correspondant du vecteur trouvé à l’étape22(ainsi on vient de réinitialiser le filtre en appliquant leBPNLMS++); 25. Relance de la boucle jusqu’au nombre d’itérations voulu. 4°)Fin de la boucle, renvoi des valeurs figées des coefficients du filtre en les formatant si nécessaire 3.3.2 Présentation du système réel Après cette étape d’apprentissage, on obtiendra les coefficients du filtre qui modélisent au mieux la réponse impulsionnelle de l’enceinte considérée. Ainsi, comme mentionné à la sous-section 1.3.1, le signal d’écho obtenu dans l’enceinte considérée peut bel et bien aussi s’obtenir,dans les mêmes conditions, par convolution du signal d’entrée avec le vecteur formé des coefficients du filtre ainsi construit. Cette solution est cruciale et déterminante pour l’efficacité et la rapidité 1 des systèmes de communication. En effet, annuler directement l’écho grâce à un modèle numérique équivalent à l’enceinte utilisée, nous permet : • De ne pas avoir à empêcher un locuteur de parler lorsque l’autre parle; 1 Sans ignorer les autres avantage d’un système d’annulation d’écho tout court. 54 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS • De simuler l’écho venant de n’importe quelle source (sélectionner un signal en particulier dont on veut extraire l’écho) pour ensuite le soustraire du signal qu’on compte transmettre. Ce qui serait carrément impossible sans cette modélisation de la réponse de la salle. Le système se résume donc ainsi : Deux interlocuteurs ayant chacun un combiné de communication, équipés chacun d’un système d’annulation d’écho, sont dans deux enceintes différentes (et dans la même enceinte à la limite ; mais c’est sans intérêt). On procède premièrement à une phase d’apprentissage où, un son de quelques secondes est émis par le haut-parleur des combinés de chaque locuteur et le filtre de chaque combiné est mis à jour. Ensuite s’établit la communication entre les deux interlocuteurs où, chaque fois que l’une des sources émet un signal, on en soustrait la modélisation de l’écho du signal venant de l’autre. Ainsi, aucun des deux ne peut réentendre sa voix à travers son haut-parleur. Cela résout le problème d’écho acoustique associé au système de communication considéré. Dans la suite (pour les essais) nous n’allons considérer qu’un interlocuteur.Pour cela, le signal venant de l’autre sera juste appelésignal lointainet celui qui vient du locuteur présent dans la salle d’expérimentation sera ditsignal local. Cela nous permettra de réaliser l’adaptation du filtre et de vérifier si le filtre obtenu modélise bel et bien l’enceinte prototype. 3.4 Implémentation de l’algorithme et simulations Dans cette section, nous allons écrire l’algorithme élaboré dans la section précédente en langage Matlab (qui a évidemment une syntaxe proche duCet qui nous permettra aumoins de réaliser des expérimentations de manière moins complexe). Utilisant un processeur à virgule flottante (celui de l’ordinateur), nous n’allons pas nous cramponner sur le formatage du signal d’entrée. Par conséquent, la transformation de Fourier va suffire pour avoir un aperçu de l’algorithme global. 3.4.1 Traitement brut des données Ce traitement revient à réaliser l’adaptation des coefficients du filtre à la manière dont la théorie a été élaborée au début du second chapitre. Donc sans optimiser le temps de calcul avec un traitement 55 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ par blocs. Nous allons donc réaliser un algorithme d’adaptation évoluant échantillon par échantillon et non par blocs. Ceci est utile pour remarquer la précision de ce traitement malgré le manque de robustesse et la charge de calcul. L’algorithme élaboré pour cet effet est ,sousMatlab, donné par l’annexe .1 . La compilation de ce code a duré12.424632secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour un signal d’entrée pris enregistré sur40secondes(voir la ligne12de ce code) pour pouvoir pousser très loin l’adaptation (jusqu’à20850tours de boucle principaux comme on le voit à la ligne43de ce code). Le signal d’entrée était: Figure 3.7: Signal d’entrée utilisé Pouri= 20850tours de boucles (voir la ligne43du code), nous avons obtenu les coefficients du filtre représentés en fonction des numéros d’échantillons par: 56 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.8: Valeurs des64coefficients du filtre Sous cette forme, on a remarqué que la convergence du filtre est relativement lente bien que le résultat soit plus parfait. On va le montrer clairement dans les sections suivantes. 3.4.2 Traitement par bloc des données L’algorithme utilisé et qui suit les étapes décrites précédemment (à la section 3.3.1 qui concerne l’élaboration de l’algorithme conseillé pour un implantation sur DSP) est donné à l’annexe .2 . Il est très important de signaler que bien que les étapes décrites lors de l’élaboration textuelle de l’algorithme soient faites pour le cas d’un traitement par FNT etpour un processeur à virgule fixe fonctionnant sous16bits, le fait que nous ayons utilisé un processeur sous64bitset la transformée de Fourier est tout à fait admissible. L’algorithme textuel a juste été élaboré pour considérer le cas le plus général et pour nous guider dans l’implémentation, surtout que cela permet également d’optimiser à la fois les coûts et l’exploitation des ressources. On remarque des simplifications drastiques en ce qui concerne le formatage des vecteurs. C’est ainsi qu’à la ligne73de ce code (annexe .2 ), on remarque qu’au lieu de multiplier le vecteur à128 57 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ termes par une matrice particulièreE(comme nous le suggère le point3en son étape17de la sous- section 3.3.1 sur les étapes de l’algorithme),Matlabnous permet d’extraire très simplement ces derniers termes. C’est le cas également aux lignes62et77(annexe .2 toujours) où les manipulations sont grandement simplifiées par rapport à ce que nous proposions au préalable. Ces propositions ont tout de même le mérite d’être plus générales comme méthode et donc utilisables même quand le langage ne permet pas une manipulation très simple des matrices. La compilation de ce code a duré8.219884secondes(valeur donnée par le chronomètre intégré à Matlab en excluant la prise du son) pour le même signal d’entrée que précédemment (voir la ligne 12de ce code et la figure 3.7) pour pouvoir pousser très loin l’adaptation. Ainsi on a obtenu en fonction des numéros d’échantillons le filtre suivant: Figure 3.9: Les64coefficients du filtre 2 Le filtre obtenu ici par contre est moins précis mais s’obtient plus vite à cause de la grande vitesse de convergence des algorithmes de traitement par bloc. Normalement, suite aux manipulations des vecteurs, on obtient unfiltre renversé et décalécomme on le voit sur cette figure: 58 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.10: Les64coefficients du filtre 2 non formatés De cela on obtient très aisément la courbe recherchée trouvée à la figure 3.9 grâce au formatage des coefficients, réalisé avec le bout de code de la ligne112(annexe .2 ) donné par: w=((ones(1,64)) * (mean(w))-(w))/(mean(w)); Pour réaliser ce formatage, il suffit de détecter la valeur moyenne (on écritmean(w)). Pour notre signal d’entrée, le filtre non formaté avait pour moyenne(13.5)(voir la figure 3.10). 3.4.3 Essais comparés Essayons, pour le même signal d’entrée (figure 3.7), de trouver les coefficients du filtre pour les deux cas en considérant différentes valeurs dei(nombre d’itérations qu’on voit aux lignes43des codes qu’on a aux annexes .1 et .2 ) et observons l’évolution des coefficients. Nous prendrons des valeurs inférieures à20850car pour une boucle allant trop au delà, nous risquons de dépasser la longueur maximale des vecteurs. Notons que le signal d’entrée formaté sous forme vectorielle était de taille1764352échantillons. 1°) Pouri= 10000on obtient: 59 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.11: Coefficients du filtre 1 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement échantillon par échantillon (ce qui a duré6.073958secondes). On a pratiquement le bon filtre. Figure 3.12: Coefficients du filtre 2 pour 10000 itérations Coefficients du filtre, obtenus aprèsi= 10000itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré3.920202secondes, presque la moitié du temps nécessaire au traitement brut précédent). C’est pratiquement les mêmes coefficients que ceux obtenus pour le cas où le nombre d’itérations était20850. 2°) Pouri= 1000on obtient: 60 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.13: Coefficients du filtre 1 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement échantillon par échantillon (a duré0.658588secondes). Malgré que la forme est bonne, les coefficients sont très faibles. Figure 3.14: Coefficients du filtre 2 pour 1000 itérations Coefficients du filtre, obtenus aprèsi= 1000itérations par l’algorithme de traitement par blocs d’échantillons (pour un temps de calcul de0.426955secondes). Malgré un léger décalage vers le haut, on a obtenu pratiquement le filtre final. 3°) Pouri= 100on obtient: 61 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.15: Coefficients du filtre 1 pour 100 itérations Coefficients, obtenus aprèsi= 100itérations par l’algorithme de traitement échantillon par échantillon (durée de compilation de0.079877secondes). Malgré que la forme commence déjà à se dessiner, les coefficients sont très faibles (c’est un filtre à coefficients quasi nuls). Figure 3.16: Coefficients du filtre 2 pour 100 itérations Coefficients du filtre, obtenus aprèsi= 100itérations par l’algorithme de traitement par blocs d’échantillons (ce qui a duré0.057885secondes). La forme commence déjà à se dessiner mais les coefficients sont encore trop décalés vers le haut. 4°) Pouri= 10on obtient: 62 sur 84 3.4. IMPLÉMENTATION DE L’ALGORITHME ET SIMULATIONS Figure 3.17: Coefficients du filtre 1 pour 10 itérations Au début de l’adaptation du filtre , les coefficients sont très mauvais. Cette figure représente l’adaptation du filtre échantillon par échantillon après10itérations. Figure 3.18: Coefficients du filtre 2 pour 10 itérations Au début de l’adaptation du filtre, les coefficients sont très mauvais. Pour10itérations, avec le traitement par blocs, on n’a toujours pas même l’esquisse des valeurs souhaitées. 4°) Il y a également deux valeurs particulières pour les deux implémentations, les valeurs dei auxquels les filtres auront presque complètement atteint les coefficients escomptés. Après plusieurs essais on obtient: •i= 4370pour le filtre en traitement brut (filtre 1) 63 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Figure 3.19: Coefficients du filtre 1 pour 4370 itérations L’algorithme de traitement échantillon par échantillon donne des très bons coefficients mais après beaucoup d’itérations (i= 4370) et trop de temps (3.296686secondespour notre cas). •i= 400pour celui du traitement par blocs (filtre 2) Figure 3.20: Coefficients du filtre 2 pour 400 itérations L’algorithme de traitement par bloc permet d’obtenir après seulement0.173829secondes, des coefficients très proches des bonnes valeurs (bien que n’étant pas très affinés, ils 64 sur 84 3.5. ANALYSE DES RÉSULTATS ET EXPLICATION DE L’IMPLANTATION SUR DSP sont assez bons pour que le passage du signal à travers un filtre ayant des telles valeurs nous donne presqu’exactement la sortie souhaitée). 3.5 Analyse des résultats et explication de l’implantation sur DSP 3.5.1 Analyse des résultats Ce que nous venons d’obtenir à la sous-section 3.4.3 est très crucial pour remarquer la puissance du traitement par blocs. On remarque très bien que le filtre élaboré par un traitement échantillon par échantillon n’évolue pas très vite vers les vraies valeurs, et se dégrade très vite avec la réduction du nombre d’itérations, tandis que le traitement par blocs est à la fois rapide (en terme de temps de calcul) et converge plus vite vers le filtre optimal. Dans le code , à la ligne61pour le premier (annexe .1 ) et64(annexe .2 ) pour le second, on a spécifié que le résultat attendu à la sortie du filtre devait être, pour tester le fonctionnement de notre algorithme, le même signal mis à l’entrée (donc l’erreur est minimisée de manière à ce que le signal d’entrée soit le même que celui obtenu après avoir traversé le filtre). Or nous savons très bien que pour avoir une sortie identique à l’entrée, la réponse impulsionnelle du filtre doit être une impulsion toujours. Et évidemment, le filtre optimal que nous avons obtenu s’approche d’une impulsion comme on le voit très bien aux figures 3.8 et 3.9.Le premier est évidemment plus proche d’une impulsion que le second bien qu’obtenu grâce à un algorithme moins robuste. En effet, le premier algorithme, qui nous permet d’obtenir des meilleurs coefficients, converge très lentement et se dégrade très vite quand on diminue le nombre d’itérations; en plus il prend trop de temps pour donner les résultats. Pour s’en convaincre, voir les figures 3.11 puis 3.13 ensuite 3.15 et finalement 3.17, on remarque très bien dans peu de temps que l’amplitude des coefficients du filtre se dégrade très vite et que les coefficients eux aussi deviennent de plus en plus écartés des bonnes valeurs jusqu’à la dégradation complète à la dernière figure, la figure 3.17). Le second, celui obtenu grâce à l’algorithme de traitement par blocs et dont l’évolution des coefficients est représentée en ordre par les figures 3.12 puis 3.14 ensuite 3.16 et finalement 3.18, est moins précis mais nettement plus robuste que le premier. En effet, il demande peu de temps de calcul et se dégrade très lentement 65 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ quand on diminue le nombre d’itérations.Malheureusement, il nécessite d’importantes corrections d’erreurs. En bref, la comparaison des résultats représentés par les figures 3.19 et 3.20 nous montre nettement la supériorité du traitement par blocs par rapport au traitement échantillon par échantillon. On remarque très clairement la nécessité d’une implantation par blocs pour avoir un traitement en temps réel (voir les commentaires afférentes aux deux figures précédentes). 3.5.2 Explication de l’implantation sur DSP L’implantation sur DSP à virgule fixe et sous16bitsexige l’adaptation de l’algorithme élaboré (celui de l’annexe .2 ) de manière à ce qu’on puisse réaliser le même traitement. Pour cela, on n’a que deux choses particulières à réaliser: • Formater le signal d’entrée de manière à l’adapter au processeur si nécessaire et • Ecrire une fonction qui réalise la transformée en nombres de Fermat tel qu’on l’a décrite et opltimisé dans les parties précédentes ainsi que son inverse. En utilisant juste les formules données. Après avoir réalisé cela, le code sera exactement le même que celui qui a été élaboré pour le traitement par blocs en se basant sur l’esquisse qui a été faite de l’algorithme au point 3.3.1. Le formatage quant à lui, quand il est nécessaire, se réalise facilement par des manipulations simples (multiplications suivies des arrondissements). Cette dernière méthode introduit évidemment une erreur mais dès qu’on envisage de l’utiliser, on peutétudier la technique adaptée pour la réduction de l’erreur qui serait introduite à la fois par ce formatage et celui réalisé durant le filtrage. Après avoir ainsi adapté l’algorithme, il faudra alors l’écrire enassembleurpour adapter le code à l’architecture du DSP choisi ou carrément en langageC, laissant au compilateur le soin d’optimiser le code en l’adaptant au DSP (C’est la solution la plus simple en fait). 3.6 Annulation d’écho Notre travail a consisté principalement à élaborer le filtre qui peut s’utiliser pour annuler l’écho dans un système de communication. Nous allons montrer la meilleure annulation que nous avons pu 66 sur 84 3.6. ANNULATION D’ÉCHO obtenir avec les filtres conçus. Il s’agit de l’annulation grâce au filtre implémenté par l’algorithme en annexe .1 qui est le plus précis (l’autre est le plus indiqué en cas d’embarquement mais nécessite d’astucieuses corrections d’erreurs). Les coefficients de ce filtre sont donnés par la figure 3.8, il correspond presqu’exactement à une impulsion. On obtient d’abord la sortie et l’annulation par le codeMatlabsuivant 2 : 1-sortie=conv(w,myrecordings); 2-echoTransmis=(sortie(1:1608500))-(myrecordings(1:1608500)); Ce bout de code a été exécuté à part, mais après l’exécution de celui d’adaptation pour pouvoir utiliser les mêmes variables. Il réalise en sa première ligne, la convolution du vecteur formé par les coefficients du filtre avec le signal d’entrée (c’est le filtrage si on pose que le filtre est approximativement linéaire). A la deuxième ligne on réalise alors la suppression d’écho pour le cas où le signal n’est pas trop modifié par l’enceinte (comme nous l’avons posé pour tester la validité de nos codes). On a considéré1608500échantillons pour ne pas risquer de dépasser la taille totale des vecteurs car le signal en entrée avait environs1700000échantillons. Dans cette figure (a) Echo résiduel après filtrage. (b) Echo sans filtrage. Figure 3.21: Démonstration de l’annulation d’écho (la figure 3.21), nous comparons l’écho reçu après filtrage du signal à envoyer à l’interlocuteur lointain, avec l’écho qu’il recevrait si le filtage n’était pas préalablement réalisé. Plus précisément, 2 Se référer à l’annexe .1 pour remarquer quemyrecordingreprésente le signal en entrée 67 sur 84 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ on réalise un filtrage pour modéliser l’écho, puis on le soustrait du signal à transmettre pour que l’interlocuteur lointain ne perçoive pas sa voix dans le signal qu’il recevra. Ainsi, en observant très bien les échelles des axes de ces figures, on remarque une atténuation très importante de l’écho. En effet, l’écho qui persiste après filtrage (voir la figure 3.21a) est environ ledixièmede celui qui est perçu lorsqu’aucun filtrage n’est réalisé 3.21b. Et on y voit très bien que pour ce dernier cas (absence de filtrage) l’interlocuteur lointain va entendre exactement son signal lui revenir. D’où la nécessité du filtrage. 3.7 Conclusion partielle Dans cette dernière partie, nous avons tout d’abord décrit les éléments principaux nécessaires à l’élaboration d’un système annulateur d’écho sans prendre en compte le fait qu’il peut être incorporé à un système déjà mis en place. C’est ainsi que nous avons vu en passant la chaîne de traitement du signal et finalement nous nous sommes focalisé sur la partie concernant le traitement proprement-dit par filtrage. Cela nous a conduit à élaborer l’algorithme d’adaptation des coefficients du filtre de manière détaillée sousMatlaben vu d’en évaluer le fonctionnement et l’adéquation aux résultats attendus. Et bien évidemment, nous nous attendions à un filtre semblable à une impulsion et nous l’avions obtenu de très près comme le prévoit la théorie. Nous avons finalement terminé par une illustration de l’annulation d’écho et une explication de l’implantation de l’algorithme sur DSP en système indépendant. 68 sur 84 CONCLUSION GÉNÉRALE Au début de ce travail, nous pensions devoir considérer en profondeur les phénomènes physiques sous-jacents à la propagation des ondes sonores. Au cours des recherches, nous nous sommes rendu bien compte qu’il était plus rapide et rentable de modéliser juste l’ensemble, pour pouvoir mener à bien le travail à un coût dérisoire. Il est en effet plus optimal de traiter les phénomènes complexes, comme les phénomènes de propagation du son en dehors des conditions de laboratoire, de manière approximative mais globale au lieu de les voir en détail. Comme cela a bien été souligné, l’approche détaillée est utopique vu que le coût de calcul est immensément énorme. En introduction, nous avons posé comme hypothèse, que le filtrage est une solution à la présence indésirée d’écho dans un système de communication, et ce travail vient évidemment de nous conforter dans cette affirmation. Nous avons également supposé qu’un filtrage purement analogique serait moins rentable mais nous nous sommes rendu compte au fil du travail que, cette proposition doit être bien nuancée. En effet, durant ce travail, nous avons montré que nous ne pouvons, si nous considérons le système dans son ensemble (et non seulement la partie qui concerne le traitement algorithmique), nous passer d’une partie de traitement analogique du signal (penser au filtre anti- repliement par exemple). Néanmoins, en nous basant uniquement sur le filtrage du signal reçu, sans trop nous fier au formatage et à la correction du rapport signal sur bruit, nous pouvons sans doute nous fier uniquement à un traitement purement numérique. Finalement, au vu du processus mis en œuvre pour l’adaptation du filtre annulateur d’écho, nous confirmons la troisième hypothèse lancée en introduction et affirmant qu’on ne peut se passer d’une mémorisation dynamique du signal durant une partie du traitement pour pouvoir mener à bien l’annulation de l’écho sonore lié au système de communication. 69 CHAPITRE 3. CONCEPTION DU FILTRE MIXTE ADAPTÉ Ce travail a pointé du doigt la puissance de la théorie mathématique de traitement du signal. C’est ainsi qu’il a pu déboucher sur le filtrage numérique et en premier lieu sur le filtrage de Wiener qui est évidemment un prélude inévitable pour aborder le filtrage adaptatif. Le filtrage adaptatif car, comme cela a été plusieurs fois mentionné, c’est le moyen par excellence pour pouvoir modéliser un système non stationnaire comme c’est le cas pour les systèmes sonores. Notre travail a donc consisté à élaborer un filtre numérique modélisant l’enceinte dans laquelle le son va se propager, de telle sorte qu’il ne puisse pas y avoir une grande différence entre le son perçu à la sortie du filtre et celui qui serait perçu après avoir parcouru la salle. Cela revient donc à modéliser le chemin d’écho. Pour cela, les coefficients du filtre élaboré doivent correspondre à la réponse impulsionnelle de l’enceinte (à l’endroit où l’on se tient pour la mesurer). Toutefois, les signaux sonores étant très instationnaires, il est impérieux d’adapter ces coefficients au fur et à mesure de la réception du signal. D’où la nécessité des filtres adaptatifs comme on l’a tantôt montré. Nous avons développé les algorithmes du filtrage adaptatif en nous focalisant sur les plus indiqués pour l’identification des système (le chemin d’écho pour notre cas). Cela nous a conduit à considérer un algorithme nomméPNLMS++qui est très indiqué dans des tels systèmes pour sa grande vitesse de convergence et sa robustesse. L’objectif visé est qu’en cas de besoin, les théories abordées dans ce travail puissent être exploitées directement pour élaborer des systèmes devant équiper des appareils de communication habituels pour l’annulation d’échos sonores éventuels. C’est pour cette raison qu’il nous a semblé très important de montrer de quelle manière on pourrait réduire toujours plus fortement la charge de calcul des processeurs numériques à utiliser ainsi que le coût (d’un point de vu pécuniaire) de l’ensemble. De toute évidence, les processeurs à virgule fixe sont les plus adaptés à l’élaboration des plate-formes à faible prix tout en gardant une efficacité admissible quand ils sont programmés en conséquence. Ils allient en fait la rentabilité financière à la précision en ce qui concerne notre projet. Ce qui précède justifie le choix d’un traitement tout à fait particulier des données pour les rendre adaptées le plus fortement possible aux processeurs à virgule fixe (il s’agit du traitement par transformation en nombres de Fermat en lieu et place de la transformation de Fourier). Cette nouvelle transformation a toutes les propriétés nécessaires pour développer et optimiser la majorité des processus d’annulation d’écho dès qu’on décide de les implanter sur un processeur à virgule fixe. 70 sur 84 3.7. CONCLUSION PARTIELLE Au préalable, nous prévoyions réaliser les algorithmes en langage C mais nous étant rendu compte du fait que cela serait sans intérêt( en première approximation), nous avons choisi de développer le système sous Matlab sachant que si on envisageait une implantation sur DSP, l’adaptation du code serait simple étant donné la similarité des syntaxes de ces deux langages. C’est sous cet angle que nous avons mis au point sous Matlab un algorithme complet d’adaptation des coefficient du filtre destiné à l’annulateur d’écho. Aux futurs chercheurs, nous suggérons l’étude complète de l’incorporation des algorithmes ici conçus, aux systèmes de communication complets ainsi que, la correction des erreurs introduites dans le filtre obtenu en cas de traitement par blocs, pour améliorer encore plus l’atténuation de l’écho par cette méthode vu que ce dernier traitement est le mieux adapté au fonctionnement en temps réel. 71 sur 84 ANNEXES 73 .1. ALGORITHME DE TRAITEMENT BRUT .1 Algorithme de traitement brut 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -yk=ones(1,64); 27 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 28 -b=100; 75 sur 84 29 -D=(1/64); 30 -rho=0.01; 31 -mu=0.8; 32 -%Initialisation des W pour NLMS puis PNLMS. 33 -w1=(ones(1,64))’; 34 -w2=(ones(1,64))’; 35 -%Initialisation des vecteurs utiles au calcul de Gk. 36 -gam=zeros(1,64); 37 -gk=zeros(1,64); 38 -%Initialisation des vecteurs d’erreur et de W. 39 -err=(1:64000); 40 -w=zeros(1:64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Récupération du vecteur d’entrée à chaque étape i 45 - sign=(myrecordings((64+(i-1)):-1:(1+(i-1))))’; 46 - 47 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 48 - Vk=max([D,abs(w)]); 49 - %Calcul du vecteur Gk 50 - for k=1:64 51 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 52 - end 53 - for M=1:64 54 - gk(M)=((gam(M))/(mean(gam))); 55 - end 56 - Gk=1 * diag(gk); 57 - %Calcul des éléments du vecteur d’erreur en gérant le début 58 - for s=1+(i-1):64+(i-1) 76 sur 84 .1. ALGORITHME DE TRAITEMENT BRUT 59 - sign2=(myrecordings((64+(s-1)):-1:(1+(s-1))))’; 60 - yk(s) = (sign2) * w’; 61 - err(s+63)=((yk(s)-myrecordings(64+(s-1)))); 62 - end 63 - 64 - %Début du processus de réinitialisation du filtre 65 - 66 - %Algorithme PNLMS (Calcul du vecteur W1) 67 - w1=(w’+(mu * Gk * ((sign)’) * err(i+63))/(sign * Gk * (sign)’+b))); 68 - %Algorithme NLMS (Calcul du vecteur W2) 69 - w2=(w’+((mu * ((sign)’) * err(i+63))/(((sign) * ((sign)’)+b)))); 70 - 71 - 72 - %Réinitialisation des coefficients du filtre par PNLMS++ 73 - 74 - for k=1:64 75 - %Coefficients impairs par PNLMS 76 - if mod(k,2)==1 77 - w(k)=w1(k); 78 - %Coefficients pairs par NLMS 79 - elseif mod(k,2)==0 80 - w(k)=w2(k); 81 - end 82 - end 83 -end 84 -%Fin du chronométrage 85 -toc; Revenir dans le texte en cliquant 3.4.1. 77 sur 84 .2 Algorithme de traitement par blocs 1 -%Récupération du son 2 - 3 -%Définition de la période d’échantillonnage en respectant Shannon 4 -fs=44100; 5 -%Définition du nombre de voies d’enregistrement 6 -noc=1; 7 -%Définition du nombre de bits 8 -nob=16; 9 -%Enregistrement du signal audio 10 -recObj=audiorecorder(fs,nob,noc); 11 -record(recObj); 12 -pause(40); 13 -stop(recObj); 14 -%Lancement du signal enregistré 15 -play(recObj); 16 -%Formatage du signal enregistré sous forme vectoriel 17 -myrecordings=getaudiodata(recObj); 18 -%Représentation du signal enregistré 19 -plot(myrecordings); 20 -%Fin de la partie prise de son 21 - 22 -%Début de l’algorithme et lancement du chronométrage 23 -tic; 24 -%Initialisations et déclaration des constantes 25 - 26 -w=zeros(1,64); 27 -zero=zeros(1,64); 28 -%Complément de W par des zeros pour atteindre la longueur réquise 78 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 29 -wk=[w,zero]’; 30 -%Déclaration des constantes "beta", "delta", "rho" et "mu". 31 -b=100; 32 -D=(1/64); 33 -rho=(10^(-2)); 34 -mu=(0.8); 35 -%Initialisation des W pour BNLMS puis BPNLMS. 36 -w1=(ones(1,64))’; 37 -w2=(ones(1,64))’; 38 -%Initialisation des vecteurs utiles au calcul de Gk. 39 -gam=zeros(1,64); 40 -gk=zeros(1,64); 41 - 42 -%Début du traitement 43 -for i=1:20850 44 - %Sélection particulier du premier bloc d’échantillons 45 - if i==1 46 - sign=(myrecordings(1:128))’; 47 - sign2=(myrecordings(128:-1:1)); 48 - %Sélection général de tous les blocs 49 - elseif i>=2 50 - sign=(myrecordings(65+64 * (i-2):192+64 * (i-2)))’; 51 - sign2=(myrecordings((192+64 * (i-2)):-1:(65+64 * (i-2)))); 52 - end 53 - 54 - %Transformation du signal d’entrée et du vecteur W 55 - SIG=fft(sign); 56 - W=(fft(wk))’; 57 - %Calcul du produit terme à terme des deux vecteurs 58 - Y=SIG. * W; 79 sur 84 59 - %Transformation inverse pour retrouver le produit de convolution 60 - YW=ifft(Y); 61 - %Sélection des termes utiles recherchés 62 - yw=YW(65:128); 63 - %Calcul du vecteur d’erreurs 64 - err=(myrecordings(1+64 * (i-1):64 * i))’-(yw); 65 - %Complément du vecteur par des zeros puis transformation 66 - ERR=[err,zero]; 67 - errF=fft(ERR); 68 - %Transformation du vecteur image 69 - SIG2=fft(sign2); 70 - %Réalisation de l’étape 3°) points 15, 16 et 17 de l’algorithme 71 - ERsign=(errF)’. * (SIG2); 72 - erSIGN=ifft(ERsign); 73 - es=erSIGN(65:128); 74 - %Réalisation de l’étape 3°) points 18 et 19 (autocorrélation) 75 - RSS=SIG2. * (SIG)’; 76 - RSs=ifft(RSS); 77 - Rss=RSs(65:128); 78 - 79 - %Calcul d’un paramètre utile pour trouver le vecteur Gk 80 - Vk=max([D,abs(w)]); 81 - %Calcul du vecteur Gk 82 - for k=1:64 83 - gam(k)=max(((rho) * Vk),(abs(w(k)))); 84 - end 85 - for M=1:64 86 - gk(M)=((gam(M))/(mean(gam))); 87 - end 88 - Gk=diag(gk); 80 sur 84 .2. ALGORITHME DE TRAITEMENT PAR BLOCS 89 - %Réalisation de l’étape 3°) point 21 90 - GkRss=Gk * (Rss); 91 - 92 - GkEsi2=Gk * es; 93 - 94 - %Réinitialisation des coefficients du filtre 95 - 96 - for j=1:64 97 - %Algorithme BPNLMS 98 - w1(j)=(w(j)+((mu * GkEsi2(j))/(GkRss(j)+b))); 99 - %Algorithme BNLMS 100 - w2(j)=(w(j)+((mu * es(j))/(Rss(j)+b))); 101 - 102 - %Réinitialisation des coefficients du filtre par BPNLMS++ 103 - %Coefficients impairs par BPNLMS 104 - if mod(j,2)==1 105 - w(j)=w1(j); 106 - %Coefficients pairs par BNLMS 107 - elseif mod(j,2)==0 108 - w(j)=w2(j); 109 - end 110 - end 111 -end 112 -w=((ones(1,64)) * (13.5)-(w))/(13.5); 113 -%Fin du chronométrage 114 -toc; Revenir dans le texte en cliquant 3.4.2. 81 sur 84 Bibliographie [1] ALAEDDINE, H.Application de la transformée en nombres entiers à la conception d’algorithmes de faible complexité pour l’annulation d’échos acoustiques.PhD thesis, Université de Bretagne Occidentale, Juillet 2007. Investigations théoriques. [2] CALAIS, J.Extensions de corps _ Théorie de Galois, ellipses ed. Mathématiques à l’Université, 2006. [3] CARIOLARO, G.Unified Signal Theory. Springer, University of Padova, Italy, 2011. [4]DECOULON, F.Théorie et traitement des signaux, vol. VI. Presses polytechniques et universitaires romandes, CH-1015 Lausanne, 1996. Fondements du traitement des signaux. [5] DESMORAT, R. Cours d’acoustique physique. Ecole Normale Supérieure (ENS Paris- Saclay), Mai 2017. [6] Introduction au filtrage adaptatif. fmy, 2005. [7] GARNIER, H. Rappels sur la théorie de l’échantillonnagede l’analogique au numérique. Université de Lorraine, Polytech NANCY.hugues.garnier@univ-lorraine.fr. [8] HENRI, A. J. . L.Méthodes matricielles _ Introduction à la complexité algébrique. arXiv math, avril 2012, ch. 7. [9] HIRIART-URRUTY, J.-B. Topologie et analyse hilbertienne: Une introduction pragmatique. Notes de cours, Université Paul Sabatier de Toulouse. [10] MALLAT, S. Traitement du signal. Notes de cours, Ecole Normale Supérieure - DÉPARTEMENT DE MATHÉMATIQUES / ENSEIGNEMENT, 45 rue d’Ulm 75230 Paris Cedex 05 - Tél : 01 44 32 31 72 -education@math.ens.fr, 2015. 83 BIBLIOGRAPHIE [11] MAURICECHARBIT, G. B. Traitement du signal audio-numérique. ATIAM: Parcours multi-mentions du master Sciences et Technologies, Septembre 2012. Université Pierre et Marie Curie - Paris 6 en collaboration avec TELECOM ParisTech et l’IRCAM. [12] MULLER, J.-P. Le traitement numérique du signal audio.www.ponge.biz, Juille 2001. [13] PISKOUNOV, N.Calcul différentiel et intégral, editions mir ed., vol. II. Juin 1993. [14] P.JARDIN, J.-F. B. . Introduction au filtrage adaptatif. ESIEE Paris, 2003. [15] PONTON, L. Groupes, anneaux, corps et théorie de galois. Papiers personnels _ lionelponton.fr. [16] SINCÈRE, F. Filtrage numérique d’un signal d’évolution lente avec un microcontrôleur. IUT de Nancy-Brabois.http://perso.orange.fr/fabrice.sincere,Version 1.2.2. [17] SINCÈRE, F. Module d’electronique, troisième partie : Conversion de données. IUT de Nancy-Brabois. http://perso.orange.fr/fabrice.sincere,Version 3.0.1. [18] TERTRE, D.Conception avancée des circuits intégrés analogiques.convertisseurs a/n et n/a. Ecole nationale supérieure des Mines de Saint-Etienne, 2009.www.emse.fr/~dutertre/ enseignement.html. [19] WIKIPÉDIA. Processeur de signal numérique, 2021. 84 sur 84
Si la mondialisation marchande à l’anglo-saxonne s’est faite au détriment d’autres types de capitalismes (modèles scandinave, germano-français ou méditerranéen), c’est parce qu’elle a été lancée dans sa forme nouvelle, depuis les années 1990, par l’Empire américain et favorisée par son immense puissance de frappe financière, puis sa domination politico-stratégique, culturelle et économique sur la vieille Europe, d’ailleurs reconstruite à cette condition après la Seconde Guerre mondiale. » Cette idée est présente également dans les analyses de Samuel Huntington, pour qui la mondialisation et Internet n’ont pas fait disparaître les identités des peuples, mais ont permis a contrario à ces derniers d’accéder à une « conscience civilisationnelle » déterritorialisée et plus large, de sorte qu’un exilé serait aujourd’hui bien plus lié à son pays d’origine et s’assimilerait bien moins facilement à la société d’accueil qu’avant l’ère des télécommunications où les émigrés étaient coupés de leur milieu d’origine par les lois de la géographie. Pris au piège de l’illusion dangereuse selon laquelle ils vivront indéfiniment protégés des menaces externes par leur pacifisme et leur renoncement à l’identité, ces non-puissances ouest-européennes ne semblent plus capables de défendre sur leur sol leurs propres valeurs et civilisation, menacées non pas par une immigration extra-européenne qui serait positive si elle était assimilée, mais par les appétits de conquête de prédateurs externes : la Chine impériale renaissante, l’empire acculturant McWorld, et les puissances revanchardes panislamistes, comme la Turquie néo-ottomane d’Erdoğan, qui instrumentalisent l’ouverture européenne et y embrigadent les communautés immigrées musulmanes pour servir leur expansionnisme, remplissant ainsi le vide laissé par les États désouverainisés et désindustrialisés d’Europe occidentale. Les leçons de la gestion chinoise et asiatique de la crise sanitaire Avec le recul nécessaire, un an et demi après les premiers confinements qui ont paralysé et continuent de paralyser les pays occidentaux (surtout l’Union européenne) – faute de lits suffisants dans les hôpitaux, de discipline et de fermeture des frontières –, les modèles alternatifs confucéens de Taiwan, Singapour, Corée du Sud et a fortiori de la Chine ont incontestablement fait preuve d’une plus grande efficacité, au prix d’une fermeture précoce des frontières, d’un traçage massif liberticide, de quarantaines drastiques, mais relativement courtes, et d’une emprise technologico-politique sur les citoyens. Elle nous rappelle que le monde multipolaire qui se dessine n’est pas seulement fait de pôles émergents et de puissances jalouses de leurs prés carrés géopolitiques, mais aussi de polycentrisme des valeurs, celles de l’Occident libertaire- mondialisé étant perçues par les autres civilisations comme une menace idéologique anarchisante, acculturante et civilisationnellement mortelle. L’Europe dupe de son interprétation utopique de la mondialisation La thèse majeure du présent essai est que la mondialisation a révélé les vulnérabilités majeures de l’Europe, ventre mou de l’Occident, qui se retrouve, de par son ouverture sans limites, exposée à toute une série de nouveaux défis qu’elle peine encore plus que les autres grandes puissances à relever : pandémie, chômage endémique, crises économiques et financières récurrentes, dépopulation des campagnes, vieillissement, fuite des cerveaux (notamment vers les États-Unis), bureaucratisation, anémie entrepreneuriale, délocalisations industrielles, dumping social asiatique, concurrence déloyale chinoise, islamisme conquérant, immigration incontrôlée, terrorisme, trafics de drogue et crime organisé, rivalités énergétiques et menaces hydriques. Un des effets secondaires et curieux de ce processus est que les Européens sont les seuls dans le monde à rejeter et diaboliser leur identités et frontières alors que les autres nations non occidentales, à commencer par la Chine, l’Inde, la Turquie, l’Asie du Sud-Est (etc.), se développent en réaction à l’universalisme occidental et utilisent au contraire la mondialisation comme un levier de leur puissance nationale et civilisationnelle. L’existence d’une façade maritime ou son absence et donc la recherche d’un accès à la mer, figure depuis des siècles aux tout premiers rangs des préoccupations majeures des grandes nations (voir chapitre X), cet ouvrage évoquant notamment le cas de l’Arménie enclavée et prise en tenailles par ses ennemis turco-azéris, ou celui de la Russie-URSS qui a toujours recherché un accès aux « Mers chaudes 15 », d’où les tensions russo- atlantistes actuelles en mer Baltique, en mer Noire (Ukraine/Crimée), ou même passées lors de l’alliance entre les États-Unis et les moudjahidines après l’invasion soviétique de l’Afghanistan, sur la route directe de l’océan Indien. Ce constat rend compte également qu’au-delà de la définition même de la géopolitique, l’approche de cette dernière est, depuis des générations, partagée entre deux sensibilités : considérer effectivement que le poids des tendances lourdes est primordial, s’inscrivant ici dans l’héritage d’illustres ancêtres (Jules César qui, à la veille de la conquête de la Gaule, fait étudier minutieusement par ses conseillers les spécificités géographiques du territoire à conquérir et les mœurs et coutumes de ses futurs adversaires ; Richelieu, père des « frontières naturelles », Frédéric II ou Bismarck...), ou au contraire privilégier les variables contemporaines, à l’image de Tamerlan, de Napoléon Bonaparte, du Vietnamien Giap ou des théoriciens comme John Frederick Charles Fuller et Pierre Marie Gallois, lointains disciples du plus génial des géostratèges : Alexandre le Grand. Ces disciplines, qui se doivent d’être menées de façon dépassionnée et désidéologisée, sont de ce fait aux antipodes du manichéisme idéologique et donc de tout politiquement correct : géopolitologues et stratèges postulent en effet que les États-nations – acteurs géopolitiques majeurs – ont et continueront toujours d’avoir des intérêts froids et des alliés comme des ennemis ; que seuls ceux qui renoncent à leurs prérogatives régaliennes seront désouverainisés par la mondialisation ou le supranationalisme ; et enfin qu’ils sont condamnés à conduire des politiques de civilisation et à se préparer à des menaces – internes ou externes –, à la guerre économique ou à la guerre tout court, s’ils ne veulent pas disparaître. La relecture de ces grandes écoles de pensée s’interrogeant sur l’avenir du monde postbipolaire peut nous inciter, rétrospectivement, à critiquer ou valider leurs analyses à vocation plus ou moins prédictive, d’autant qu’elles ont toutes abordé d’une façon ou d’une autre la question de la mondialisation et du devenir de l’Empire américano-occidental, aujourd’hui contesté dans ses fondements mêmes par les outsiders. Il est aujourd’hui encore trop tôt pour pouvoir émettre un jugement objectif sur les prises de position d’un Donald Trump entre 2016 et 2020, d’autant que, en comparaison avec ses prédécesseurs, Trump aura été plutôt un non- interventionniste et n’a pas commis les graves erreurs de politique étrangère de Bill Clinton, George Bush père et fils et même Barack Obama (guerres d’ex-Yougoslavie, Irak 1 et 2, Libye, Afghanistan). Toutefois, la proposition barberienne de conjurer le scénario chaotique d’un « Mad Max universel » par la réhabilitation de l’État souverain confirme la nécessité que ce dernier demeure l’acteur majeur de la politique mondiale et le fait qu’il soit le cadre le plus approprié pour assurer les droits des citoyens – donc la démocratie elle-même – comme seule alternative viable face aux forces impériales et néobarbares de djihad, de Mad Max et de McWorld qui annoncent la guerre de tous contre tous. En fin de compte, la multiplication des conflits depuis la fin de la guerre froide peut s’expliquer non seulement par le fait que la sanctuarisation nucléaire ne suffit pas et ne concerne que peu de nations, mais aussi par l’échec patent du multilatéralisme, qui n’a réglé pratiquement aucun des conflits, excepté les exemples discutables des Balkans : échecs au Rwanda, à Chypre, en Israël-Palestine, en République démocratique du Congo, en République centrafricaine, en Syrie, en Libye, en Irak, en Corée du Nord, au Yémen, en Somalie, et aussi sur le dossier nucléaire iranien, les exemples sont trop nombreux pour être tous énumérés. Le conflit du Haut-Karabagh La récente confrontation armée entre l’Azerbaïdjan et les Arméniens du Haut Karabagh (27 septembre- 10 novembre 2020) n’est que l’énième épisode d’un antagonisme géopolitique violent qui date des années 1988- 1991 : l’Arménie chrétienne ex-soviétique est non seulement enclavée mais surtout prise en tenailles entre Turcs musulmans sunnites à l’Ouest et Azéris musulmans chiites à l’Est (turcophones également), et n’a de bons rapports qu’avec les Russes et dans une moindre mesure, avec les Perses voisins, eux-mêmes concurrents des Turcs et des Russes et méfiants vis-à-vis de l’irrédentisme azéri dans le nord de l’Iran... En septembre 1991, l’Assemblée nationale du Haut-Karabagh réitéra sa déclaration d’indépendance, ratifiée par le référendum du 10 décembre, avec une écrasante majorité de « oui », mais elle n’a jamais été reconnue par aucun État..., pas même par les Nations unies ou d’autres organisations internationales intergouvernementales qui ne veulent pas compromettre leurs relations avec l’Azerbaïdjan riche en pétrole et bien plus prospère que la petite Arménie enclavée, et sous embargo turco-azéri... On remarquera en passant que, dans le cadre de ce monde multipolaire en voie de constitution, ce n’est pas le Groupe de Minsk, cité précédemment, qui a fait avaliser le cessez-le-feu du 10 novembre 2020, mais une entente tripartite fort cynique entre l’Azerbaïdjan, la Turquie et la Russie, excluant soigneusement des termes de l’accord les parrains occidentaux du Groupe de Minsk (France, États-Unis) : Erevan s’engage à rétrocéder à Bakou les districts d’Aghdam et de Kelbadjar ; un corridor est aménagé à Latchin ; le retour des personnes déplacées sera effectué sous le contrôle de l’ONU ; et, plus concrètement encore, dès le lendemain de la signature de l’accord, deux mille soldats russes sont déployés le long de l’ancienne ligne de front (voir carte n o 10). Certes, on n’en est pas là, mais il ne faut jamais oublier, contrairement aux fantasmes de certains russophiles extrêmes, que Moscou n’est pas une puissance idéaliste chrétienne nécessairement proarménienne, mais qu’elle cherche à rester présente sur l’ensemble du Caucase riche en hydrocarbures (Azerbaïdjan), traversé par les routes de transit énergétique, et que dans ce contexte, elle n’a jamais considéré le Haut-Karabagh comme autre chose qu’une partie intégrante du territoire de l’Azerbaïdjan souverain... Le Président turc a ainsi fait d’une pierre deux coups en appuyant ostensiblement, politiquement et militairement (coordination entre les armées turque et azérie), cette guerre pour les « frères turcs azéris » : il fait oublier des problèmes économiques et politiques intérieurs ; il consolide l’alliance électorale de son parti l’AKP, avec les nationalistes panturcs du MHP ; et il renforce la présence turque dans la région stratégique et riche en hydrocarbures du Caucase turcophone (mer Caspienne), alors que la Turquie manque d’énergies fossiles et ne veut pas trop dépendre du gaz russe. Côté ukrainien, certaines sources indiquent qu’il y aurait également une volonté de reproduire le scénario azéri, pour récupérer militairement les territoires russophones rebelles de l’Est, l’Ukraine escomptant que la Russie n’ose pas intervenir massivement et directement dans le Donbass pour plusieurs raisons : primo, Moscou n’a pas le droit légal d’intervenir sur le sol ukrainien dont le Donbass (voir carte n o 14) fait partie, sachant que l’indépendance de ces républiques autoproclamées n’a jamais été reconnue par les autorités russes elles-mêmes (comme celle du Haut-Karabagh). On peut citer, par exemple, la guerre civile syrienne, sur laquelle nous reviendrons, celle du Yémen, toujours en cours, qui oppose rebelles chiites-houthistes soutenus par l’Iran, d’une part, aux sunnites progouvernementaux liés aux Frères musulmans et aux monarchies du Golfe, de l’autre, soutenus par les États-Unis et l’Occident ; le conflit intercommunautaire opposant les Philippines à la Malaisie dans l’État malaisien de Sabah (2013) ; les conflits africains, surreprésentés : Congo/Kinshasa 17 ; Ethiopie, où les rebelles de la région dissidente du Tigré (Nord), en guerre contre le pouvoir central et son ethnie majoritaire (Oromo), ont pris les principales villes de la zone, Adigrat, Shiré et depuis le 29 juin 2021, la capitale régionale Mekele ; Côte d’Ivoire (opposition entre ethnies rivales, Nord rebelle et capitale, puis entre pro-Gbagbo et pro-Ouattara) ; Kivu 18 ; République centrafricaine (luttes interethniques et conflits sédentaires chrétiens/musulmans venus du Nord), génocides du Soudan (1990- 2000 : chrétiens du Sud-Soudan et musulmans noirs du Darfour exterminés par la junte nationale-islamiste arabe du Nord) ou du Rwanda (1994, Hutus contre Tutsis). Cet archipel revêt un fort intérêt économico-stratégique pour la Russie, car il recèle des réserves minières et de terres rares, comme le rhénium 23 , ainsi que des gisements de pétrole et de gaz, il constitue aussi une porte stratégique sur le Pacifique pour les deux bases navales russes de Vladivostok, d’où les navires partent via le détroit qui ne gèle pas en hiver entre les îles Kounachir et Itouroup, deux des quatre îles Kouriles ; le contentieux autour des îles Senkaku (ou Diaoyu en chinois), revendiquées par ces mêmes puissances où la situation est devenue très conflictuelle depuis que le gouvernement japonais a décidé, en septembre 2012, de nationaliser trois des cinq îles de l’archipel 24 qui se situent en mer de Chine orientale. Le Viêtnam, puissance émergente du monde multipolaire, qui tente de réaffirmer sa maritimisation régionale, ne pouvant pas lutter à armes égales contre la Chine, mise sur le dispositif de l’Asean (voir cartes n os 3 et 4), qui inclut des pays partageant les mêmes préoccupations (Malaisie, Philippines, Brunei), et se rapproche des États-Unis, l’ancien ennemi juré, ainsi que de l’Inde, et de l’Australie dans une logique d’endiguement de la Chine. Outre ces contentieux historiques, dont Hong Kong est un des symboles, deux faits majeurs ont rappelé que la Chine est de plus en plus sûre d’elle- même : parallèlement aux incidents de frontières avec la Russie le long du fleuve Amour – rivalité qui persiste malgré leur alliance stratégique au sein de l’OCS (voir chapitre V) –, son contentieux avec l’Union indienne, d’une part, et son souci de s’affirmer comme une véritable puissance maritime, d’autre part, sont des tendances lourdes. Deux contentieux frontaliers ont ainsi resurgi récemment entre la nouvelle superpuissance chinoise et l’Union indienne, puissance nucléaire depuis 1974 : après une période de relative accalmie, les pays rivaux sont en situation de conflit latent à l’est du Cachemire (également source de conflits pérennes avec le Pakistan, autre puissance nucléaire), et l’on se souvient de la guerre sino-indienne de 1962, brève mais très violente, pour le contrôle des territoires himalayens. Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Pour récapituler, dans le monde instable et multipolaire qui vient, les conflits majeurs et potentiels – qui ne comprennent pas les risques climatiques ou sanitaires, plus indépendants des agendas politiques et géopolitiques et étudiés plus loin – peuvent être fondés sur : des antagonismes géoénergétiques ou autour de l’eau et des terres rares ; la persistance des rivalités et conflits infra-étatiques internationalisés ou régionalisés ; la guerre géoéconomique et financière autour des rivalités entre l’Occident et ses outsiders et entre les acteurs principaux du monde polycentrique ; des conflits identitaires que Samuel Huntington a rangés dans la catégorie des « chocs de civilisations » ; des phénomènes migratoires de masse incontrôlés ; le terrorisme international, très majoritairement islamiste ; les chocs des empires naissants ou résurgents (néo-ottomanisme turc versus nationalismes arabes et Europe ; États-Unis versus Chine et Russie). Les États-Unis, l’Alliance atlantique et l’Union européenne – vassalisée depuis 1950 – ont étendu leur puissance vers l’Europe centrale et orientale, jusqu’aux pays baltes et aux Balkans, ce qui a été ressenti par la Russie comme une humiliation, car il s’agit de son ancienne zone d’influence du temps de la guerre froide. À cet égard, les premières déclarations et décisions du président Joe Biden, pourtant supposé être plus mesuré que son prédécesseur Donald Trump, n’ont pas été dans le sens de l’amélioration des relations russo-américaines : après avoir qualifié (17 mars 2021) Vladimir Poutine de « meurtrier », Joe Biden a accusé la Russie d’essayer de continuer à influencer la politique intérieure américaine et il a non seulement renforcé les sanctions contre Moscou en mettant sur une liste noire trente-cinq personnes morales et physiques russes, mais aussi interdit aux entreprises et citoyens américains d’acquérir et acheter des bons du Trésor russe destinés à financer la dette de la Russie. Certes, l’OCS est composée, comme les Brics (Brésil, Russie, Inde, Chine, Afrique du Sud), d’États parfois ennemis entre eux (l’Inde et la Chine), mais outre que la Chine et la Russie, son noyau dur, sont des alliées stratégiques face à l’Otan et aux États-Unis, elle représente tout de même un ensemble multipolaire qui dispose de 38 % des ressources mondiales de gaz, de 20 % de celles en gaz, de 40 % du charbon, de 30 % de l’uranium de la planète et des deux armées les plus puissantes après les États-Unis, de surcroît nucléaires. Ce mouvement renforcera non seulement les liens entre la Chine, la Russie, l’Iran et l’Inde, mais il attirera aussi contre lui des pays du monde musulman et des acteurs souverainistes pas forcément antioccidentaux, pour qui l’hégémonie américaine est rédhibitoire, donnant ainsi corps à l’alliance antihégémonique que redoutait tant Zbigniew Brzezinski dans Le Grand Échiquier. Le nombre de grandes puissances va être plus élevé qu’il ne l’a jamais été par le passé : on trouve tout d’abord le « club des sept empires » (Giannulli), à savoir les États-Unis, l’Union européenne, le Japon, le Brésil, la Russie, l’Inde et la Chine, qui représentent à eux seuls plus de 50 % de la population mondiale et 75 % du produit intérieur brut (PIB) mondial, puis viennent dans un second cercle de puissances de moindre poids l’Afrique du Sud, la Colombie, l’Indonésie, l’Égypte, l’Iran, la Turquie, chacune de ces puissances évoluant dans leur « étranger proche » sur la base de leurs propres valeurs et intérêts, portant ainsi une vision spécifique. La crise économique et financière a par ailleurs accentué le phénomène de rééquilibrage économique et géopolitique mondial en faveur d’une participation plus importante des pays non occidentaux aux affaires du monde : la part de l’Asie dans l’économie mondiale est passée de 7 % en 1980 à 30 % en 2020, tandis que les marchés d’Asie représentent aujourd’hui 34 % de la capitalisation boursière mondiale (devant les États-Unis, 29 %, et l’Europe 24 %). L’Union européenne est aujourd’hui une organisation hybride : un Ogni, un objet géopolitique non identifié : elle n’est ni un État, ni une fédération, ni même une confédération, mais une organisation internationale très divisée et hétérogène, unie en apparence seulement par une idéologie sociale-démocrate universaliste et une économie de marché, qui s’applique à elle-même des règles de limitation des souverainetés, de répression des identités nationales, d’ingénuité géoéconomique, de strict respect de la concurrence, de protection des travailleurs et de l’environnement ou de multiculturalisme, que les autres acteurs du monde ne s’appliquent pas à eux-mêmes, mais exigent opportunément d’elle, dans l’intention de la conquérir. Rejet de l’occidentalisation et de la domination américaine Les nouveaux dispositifs géopolitiques mis en œuvre depuis la fin de la guerre froide par les partisans d’un nouvel ordre international polycentrique, émancipés de l’hégémonie de l’Occident et des États-Unis, donc en quête de « désoccidentalisation », appartiennent à deux grands groupes : premièrement, les groupes d’États qui s’opposent à l’Occident, combattent ses valeurs et sa civilisation ; deuxièmement, ceux qui ne sont pas forcément antioccidentaux mais qui veulent un monde multipolaire fondé sur le respect de la souveraineté des États maîtres de leurs zones d’action géopolitique, économique et stratégique respectives. D’après Ziegler, cette haine antioccidentale paralyse les Nations unies : l’Assemblée générale de l’ONU est d’ores et déjà composée en grande majorité de pays du Sud et émergents (Afrique, Asie du Sud, Amérique latine, monde islamique-OCI, OCS, Brics, etc.), qui contestent l’unipolarité du monde, alors que l’organe décisionnel stratégique (les cinq États membres permanents du Conseil de sécurité) demeure dominé par des États vainqueurs de la Seconde Guerre mondiale (États-Unis, France, Grande-Bretagne, Russie, Chine) qui refusent pour l’heure de revoir cette composition qui ne reflète pourtant plus du tout l’état du monde dans sa pluralité ni l’émergence de nouveaux acteurs stratégiques clés du Sud, comme l’Inde, le Brésil ou l’Afrique du Sud. Tant à la conférence antioccidentale de l’ONU organisée à Durban, en 2000 puis en 2009 (« Durban II »), qu’au Conseil des droits de l’homme des Nations unies à Genève ou à l’Assemblée générale des Nations unies, à New York, on constate la radicalisation d’un front antioccidental, rappelant à la fois l’expérience de la Tricontinentale et des non-alignés, et unissant, contre Israël, les États-Unis, et les pays industriels démocratiques des États aussi différents que l’Égypte, le Pakistan, Cuba, la Bolivie, le Venezuela, les États membres des groupes africains, arabes, musulmans (OCI) et latino-américains, la Corée du Nord, la Chine ou la Russie (Brics, OCS, États non-alignés). La Chine va ainsi asseoir encore son influence économique et industrielle sur toute l’Asie, en déployant de nouvelles chaînes de production en Asie du Sud-Est, sanctuarisant de ce fait sa puissance industrielle et commerciale et contestant le réseau d’alliances militaires et économiques des États-Unis par une stratégie économico-financière de contre-encerclement asymétrique, qui va de pair avec la stratégie du collier de perles et l’initiative BRI... Cette théorie néo-impériale de l’État universel islamique s’oppose par principe à la coexistence d’une pluralité d’États égaux et souverains, et c’est pour cette raison notamment que l’islamisme radical n’est pas qu’une menace terroriste (partie émergée de l’iceberg totalitaire) mais avant tout un défi géopolitique et stratégique pour tous les États-nations attachés à leur souveraineté et à leur pérennité, qui voient dans l’islamisme un projet subversif à la fois séparatiste (en interne) et suprémaciste conquérant (au niveau externe). Cette idéologie fondée sur le règne de la charia et du califat planétaire, appelée à soumettre, de gré ou de force, l’humanité (voir carte n o 8), est portée depuis des décennies par des grands pôles étatiques 8 : le wahhabisme salafiste officiel d’Arabie saoudite, avec son bras prosélyte mondial, la Ligue islamique mondiale ; le pôle indo-pakistanais, cofondateur du Jamaat al-islamiyya ; des talibans d’al-Qaida ; le Qatar, parrain du Hamas et des Frères musulmans, à la tête du média planétaire Al Jazeera ; le pôle néo-ottoman réhabilité par la Turquie postkémaliste de Recep Tayyip Erdoğan ; la révolution islamique iranienne chiite, influencée dans ses origines par les Frères musulmans bien qu’étant chiite ; sans oublier les puissantes institutions et organisations internationales panislamiques comme l’Organisation de la coopération islamique (voir infra), qui réunit cinquante-sept pays musulmans désireux d’instaurer un ordre international alternatif fondé sur la charia, l’Organisation du monde islamique pour l’éducation, les sciences et la culture (Isesco, sorte d’« Unesco » islamique, influencée par les Frères musulmans) ; et enfin, les grandes centrales terroristes comme al-Qaida ou Daesh, et les groupes franchisés associés comme Aqmi, Boko Haram, shebab somaliens, etc. Concernant la Syrie, la situation est loin de s’améliorer et toute l’action des Occidentaux, encore obnubilés par leur stratégie d’endiguement de la Russie et de ses alliés stratégiques iranien et syrien, semble concourir à faire le jeu de l’islamisme et du djihadisme : en juin 2019, Washington a fait adopter de nouvelles sanctions à travers la loi César (Caesar Syria Civilian Protection Act), extraterritoriale, qui prévoit d’interdire l’entrée aux États-Unis et de barrer l’accès au système financier américain à toute personne, institution ou entreprise soutenant l’État syrien dans la reconstruction ou les hydrocarbures (y compris la vente). Si les États-Unis retirent des milliers de soldats d’Afghanistan, al-Qaida est également bien placée pour profiter du vide qui en résulte et régénérer son réseau dans toute l’Asie du Sud. L’organisation, toujours dirigée par l’un de ses fondateurs historiques, Ayman al-Zawahiri, a survécu pendant plus de trois décennies grâce à la capacité du groupe à innover en affinant constamment des tactiques, des techniques et modus vivendi caractérisés par une très forte capacité d’adaptation selon les circonstances, les contextes culturels et les zones géographiques. Ces pôles institutionnels de l’islamisation qui dénoncent verbalement la violence djihadiste tout en affirmant qu’elle n’a « rien à voir avec l’Islam » – et donc en niant son existence même – pratiquent de leur côté une ingérence politique dans les affaires de tous les pays du monde où vivent des musulmans, sous couvert de défense de l’islam et des musulmans « persécutés », se nourrissant aussi d’une « islamophobie » souvent imaginaire. Toujours est-il qu’une des conséquences principales des sanctions renforcées par Donald Trump (« pression maximale ») a été le renforcement de la coopération irano-chinoise qui a franchi un nouveau cap avec l’officialisation d’un accord stratégique de vingt-cinq ans entre les deux pays en mars 2020, un rapprochement que voudrait éviter à tout prix Joe Biden mais qui participe d’une tendance lourde inhérente à la multipolarisation et aux rivalités entre les États-Unis et le tandem russo-chinois 19 . De fait, leur influence financière, économique, politique et souvent même géopolitique, est impressionnante, et grâce à cette force financière et géoéconomique, les FMN ont toujours plus d’ambition pour se mesurer aux États, voire tenter de les dépasser dans certains domaines, ainsi qu’on l’observe de façon flagrante avec Tesla et le projet spatial de son P-DG, Elon Musk, qui a conçu et mis en service des lanceurs réutilisables sur sa fusée Falcon 9 (la plus puissante du monde).
Ouvrages des mêmes auteurs Alexandre Del Valle – Le Projet (L’Artilleur, 2019) – La Stratégie de l’intimidation (L’Artilleur, 2018) – Les vrais ennemis de l’Occident (L’Artilleur, 2016) – Comprendre le chaos syrien (avec Randa Kassis, L’Artilleur, 2016) – Le Complexe occidental (L’Artilleur, 2014) – Pourquoi on tue des Chrétiens aujourd’hui dans le monde (Maxima, 2011) – La Turquie dans l’Europe (Syrtes, 2004) – Islamisme et Etats-Unis, une alliance contre l’Europe (L’Age d’homme, 2000) Jacques Soppelsa – Les sept défis capitaux du nouvel ordre mondial (A2C, 2009) – Géopolitique du monde contemporain (en collaboration, Nathan, 2008) – Les Etats-Unis. Une histoire revisitée (La Martinière – Seuil, 2004) – Les dates clefs du dialogue régionale en Amérique latine (Ellipses, 2002) – Géopolitique de l’Asie-Pacifique (Ellipses, 2001) – Dix mythes pour l’Amérique (Ellipses, 1997) – Léxique de géopolitique (Dalloz, 1997) ISBN : 978-2-81001-023-3 © 2021, Éditions de l’Artilleur / Toucan – éditeur indépendant 16 rue Vézelay – 75008 Paris www.lartilleur.fr Le Code de la propriété intellectuelle interdit les copies ou reproductions destinées à une utilisation collective. Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles L. 335-2 et suivants du code de la propriété intellectuelle. Ce document numérique a été réalisé par Nord Compo. « Le vieux monde se meurt, le nouveau monde tarde à venir et dans ce clair-obscur surgissent les monstres. » Antonio Gramsci « Nous sommes entrés dans un monde en transformation rapide qui présente de formidables opportunités, notamment technologiques. Mais ce monde est aussi celui de l’incertitude et de l’instabilité, où le rapport de force redevient le mode de règlement des différends entre Nations. Le combat de haute intensité devient une option très probable. » Thierry Burkhard, chef d’état-major de l’armée de terre française SOMMAIRE Titre Ouvrages des mêmes auteurs Copyright Exergue Prélude Chapitre I - Déclin de l’Occident ? Mondialisation américaine McWorld ? La mondialisation, apogée ou crépuscule ? Ventres mous civilisationnels versus ventres durs identitaires Déclassement de l’Occident et mondialisation du virus Les leçons de la gestion chinoise et asiatique de la crise sanitaire L’Europe dupe de son interprétation utopique de la mondialisation Désoccidentalisation, antiaméricanisme et rejet des institutions multilatérales héritées de 1945 Défis géopolitiques : constantes et variables Les tendances lourdes Variables contemporaines Partie I - Les tendances lourdes Chapitre II - La période contemporaine : ordre ou désordre ? Djihad versus McWorld ? Chapitre III - De la multiplication des conflits Multiplication des conflits infra-étatiques internationalisés Échec du multilatéralisme ? Le conflit du Haut-Karabagh Deux principes de légitimité s’opposent Du rôle de la communauté internationale Le retour de la guerre dans le Caucase La Turquie est entrée en scène... Les leçons de la guerre du Haut-Karabagh Le spectre d’une guerre interétatique entre l’Ukraine et la Russie Stratégies et buts de guerres de part et d’autre Taiwan : vers un affrontement direct Chine-États-Unis ? La « surreprésentation » des conflits intraétatiques Trente-sept conflits ouverts en cours aujourd’hui La zone Sahel devenue une des plus létales au monde... L’incessant conflit du Cachemire entre Inde et Pakistan La multiplication des tensions et conflits locaux en Asie La Chine à l’assaut de la mer de Chine méridionale L’aberration géopolitique de la question nord-coréenne La superpuissance montante et revancharde chinoise Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Chapitre IV - De l’ancienne à la nouvelle guerre froide ? L’Europe, théâtre de guerre nucléaire entre États-Unis et Russie ? L’occasion manquée de l’alliance russo-occidentale (1999-2003) La rupture stratégique des années 2003-2005 La Russie, une menace plus grande que le terrorisme islamiste pour les atlantistes... L’OCS, ou l’alliance « antihégémonique » russo-chinoise redoutée par Brzezinski Chapitre V - ... ou désordre mondial multipolaire ? Fractures internes et externes Le monde n’appartiendra plus à personne... La stratégie du collier de perles Outsiders, émergents, Brics, acteurs de la désoccidentalisation du monde Inexorable montée en puissance de l’hégémon chinois Patriots vs McWorldists ? L’Europe : « impuissance volontaire » et dindon de la farce de la mondialisation ? Un objet « géopolitique non identifié » et postcivilisationnel Rejet de l’occidentalisation et de la domination américaine Monde multipolaire ou polycentrique Désoccidentalisation de la mondialisation marchande et technologique La région Asie, nouveau phare du monde Chapitre VI - Géopolitique linguistique : le français vecteur multipolaire ? L’emprise de l’anglo-américain Le paradoxe québécois Francophonie avec un grand F : l’Organisation internationale de la francophonie Partie II - Variables contemporaines Chapitre VII - Islamisme et terrorisme mondialisés De quoi parle-t-on au juste ? Les pôles majeurs du totalitarisme vert : de l’islamisme institutionnel au djihadisme L’erreur occidentale et atlantiste des alliances contracivilisationnelles État des lieux et stratégies du djihadisme Une menace asymétrique à la fois exogène et endogène Djihadisme low cost ubérisé Situation actuelle/future de Daesh/al-Qaida Daesh n’est pas mort Daesh conserve un trésor de guerre et de dizaines de milliers de combattants djihadistes Al-Qaida redevenue la plus puissante organisation terroriste L’Asie du Sud, nouvel horizon des centrales djihadistes Le djihadisme en pleine ascension au Sahel Les islamistes ont une vraie stratégie, contrairement à leurs ennemis et à l’Occident... Nomades musulmans peuls fuyant la désertification en razziant les sédentaires du Sud : un double mouvement de fond climatique et civilisationnel Extension du domaine du djihadisme : de la Somalie à l’Afrique australe Le terrorisme islamiste : guerre psychologique et propagande par l’action Les cerveaux djihadistes recrutent des délinquants pour leur aptitude à la violence L’efficacité de la stratégie de l’intimidation Le continuum djihadisme-islamisme et le chantage à l’islamophobie La vulnérabilité des sociétés démocratiques et multiculturelles Chapitre VIII - Prolifération nucléaire et aléas du désarmement Des origines du nucléaire militaire à l’échec des traités de désarmement et de non-prolifération Les conséquences géopolitiques de l’atome Bouleversement des hiérarchies militaires étatiques classiques Le « club nucléaire » La prolifération nucléaire Le cauchemar du « terrorisme nucléaire » Quid de l’Iran ? Le commerce des armes à l’heure du système postbipolaire Contrôle des armements ? Désarmement ? Le maigre bilan de décennies de désarmement Les accords bilatéraux de Salt I et Salt II La période 1985-2020 : du contrôle des armements au concept de désarmement, Start I, Start II, Start III et New Start Les traités multilatéraux Relance de la course aux armements sur fond de néoguerre froide... Chapitre IX - Le crime organisé : grand gagnant de la mondialisation ! Blanchiment : la mondialisation financière et le capitalisme dérégulé, des opportunités pour le crime organisé Le trafic de drogue, entreprise presque aussi lucrative que le pétrole ! Le trou noir narco-islamiste afghan Géographie du crime organisé Mafias italiennes Mafias albanaises Les cartels d’Amérique centrale Mafias russophones Mafia nigériane La France, les quartiers de non-droit ou la loi des caïds Drogue et terrorisme : la face cachée mafieuse de Daesh et al-Qaida Trafic d’êtres humains et prostitutions : esclavage des temps modernes L’incroyable business de l’immigration clandestine Les passeurs de clandestins, à la pointe du marketing digital et de la mondialisation... Trafic d’organes Trafic d’espèces sauvages et braconnage Contrefaçon et mondialisation marchande Trafics d’armes L’arrivée sur le marché des armes 3D... La 5G sera un casse-tête sécuritaire Cybercriminalité et Darknet Les criminels profitent de la crise sanitaire ! Chapitre X - Géopolitique écoénergétique, guerres du gaz et guerres de l’eau... La menace du réchauffement climatique et de ses conséquences Les climatosceptiques en question Les éléments de préoccupation s’accumulent L’accord de Paris, enjeux de rivalités de leadership entre nations Transition énergétique et croissance économique : l’ultrapolarisation du débat aux États-Unis Vers une « civilisation écologique », le nouveau leitmotiv de Xi Jinping Le projet chinois de « croissance verte », aux antipodes de la décroissance des écolos européens : un autre grand déclassement en cours... Vers un nouveau paradigme écoénergétique Depuis la COP 21, les tentatives de résurgence de l’Ancien Monde paraissent peu à peu s’éloigner... Pétrole et gaz de schiste et filières nucléaires, les énergies renouvelables n’ont pas encore gagné la partie... Les gazoducs russo-européens, des épines dans le pied pour l’hégémon américain... Le nucléaire : énergie de tous les dangers pour certains, solution de décarbonation pour d’autres... La Chine une fois de plus leader dans le domaine L’enjeu géoéconomique majeur des terres rares, la Chine toujours no 1 Les terres rares, clé des énergies renouvelables, mais désastre pour l’environnement... Stress hydrique et barrages : les guerres de l’eau en question Quelques chiffres Le contrôle des rivières, mers et océans, source de conflits Guerres de l’eau entre la Turquie et ses voisins La Turquie à l’assaut des réserves de gaz et de pétrole de Méditerranée orientale Conflit avec Chypre et la Grèce Conflit avec l’Égypte autour de la Méditerranée et de la Libye De l’Asie centrale au Golfe arabo-persique La Chine à la conquête de la puissance maritime et des ressources subaquatiques Partie III - Nouveaux défis Chapitre XI - Les défis démographiques 1/ L’explosion démographique. De quelques chiffres édifiants Explosion de la population mondiale Le déséquilibre démographique international L’hiver démographique des Occidentaux et d’une partie de l’Asie ? Russie, trop grande trop vide... La démographie, un facteur critique pour l’alimentation Relativisons les chiffres catastrophiques Démographie et Inégalités 2/ Les migrations internationales « Préparez Venus viendra Mars... » Les conséquences sociopolitiques et géocivilisationnelles de l’immigration Quelques chiffres qui parlent d’eux-mêmes Le droit d’asile, principal prétexte à la migration clandestine Le tabou du coût de l’immigration Pause migratoire ? Chapitre XII - Puissances multinationales et digitales face aux États souverains La puissance des firmes multinationales Délocalisation, fiscalité avantageuse et comportements parfois criminels Les Gafam en question... ou l’économie virtuelle à l’assaut du monde ancien La puissance financière, politique et technologique démesurée des Gafam Multinationales prédatrices et capitalisme ubérisé : l’émergence d’un nouveau sous-prolétariat Le bras de fer entre les cryptomonnaies et les États Liberté individuelle, espionnage Les Gafam, danger pour les États... sauf pour les deux hyperpuissances qui les ont créés... Réseaux sociaux, entre trop grande liberté et néocensure très orientée... Oligopole des Gafam face au Big Brother chinois des « BATX » La guerre froide sino-américaine et l’enjeu géoécomique majeur de la 5G « Le Yalta des mondes digitaux » La nationalisation des moyens d’information Chapitre XIII - Crise sanitaire et biotech, l’Europe déclassée ? État des lieux et chiffres La crise économique est une crise sanitaire Géopolitique de la Covid-19 L’endettement colossal et le spectre d’une banqueroute de l’économie mondialisée La France et l’Europe au bord de la faillite ? Explosion de la dette et risque d’implosion de l’euro Perdants et gagnants de la crise sanitaire Biotech, ordinateurs quantiques, thérapies génétiques : la Chine et l’Asie en voie de déclasser l’Occident ? Nanotechnologies Physique et Internet quantique Médecine régénérative et édition génomique Chapitre XIV - Démondialisation ou désoccidentalisation de la mondialisation ? Postmondialisation ? Ralentissement de la mondialisation chinoise et postmondialisation régionalisée De la troisième vague de mondialisation à la démondialisation Doublement du commerce extérieur en valeur, mais augmentation très modérée du taux d’importation Des échanges de services demeurés localisés Le retour du bilatéralisme, reflux des investisseurs internationaux et reréglementation financière Reréglementation financière, effets du Brexit et renationalisations tous azimuts Monétisation et nationalisation de la dette publique Flottement des changes et retour au contrôle des changes L’arrêt durable des voyages d’affaires et du tourisme de masse Conclusion - Gouverner c’est prévoir, le désordre actuel était prévisible... Cartes géopolitiques Bibliographie des ouvrages cités Index des noms propres Remerciements Prélude Cet ouvrage a été écrit à quatre mains, par deux géopoliticiens appartenant à deux générations successives, mais complémentaires. La mienne a été en quelque sorte pionnière, lorsque, avant même d’être nommé président de l’Université de Paris Panthéon Sorbonne (1982-1989), à une époque où la géopolitique n’était pas à la mode, je fus titulaire, en 1978, de la première chaire de Géopolitique, recréée en Sorbonne, après des décennies de mise à l’écart d’une discipline bafouée par les errements de Karl Haushoffer et de ses disciples... Vingt-deux ouvrages et des années plus tard, je me félicite du fait que notre discipline soit désormais en odeur de sainteté et « démocratisée », même si l’on peut déplorer des usages parfois intempestifs du terme par des journalistes. Parallèlement aux travaux d’Yves Lacoste, puis, un peu plus tard, à ceux de Michel Korinmann, de François Thual ou de Pascal Lorot, et dans le sillage du général Pierre Marie Gallois, nous fûmes en quelques sorte des pionniers de l’école française de géopolitique, aujourd’hui écoutée ailleurs dans le monde, notamment en Italie ou aux Etats-Unis. La génération d’Alexandre del Valle, auteur prolixe, que j’ai suivi depuis ses premières publications, assure la relève. Et c’est dans cet esprit intergénérationnel et de complémentarité, que j’ai eu l’idée d’écrire avec lui, en novembre dernier, le présent ouvrage. J’avais d’ailleurs envisagé au départ de l’intituler Le nouveau désordre mondial, mais le texte a évolué aux cours des mois et de nos échanges, à l’image de la démarche géopolitique faite de constantes et de variables, au point d’aborder des domaines et pistes d’étude au départ non envisagés. Del Valle figure depuis de nombreuses années aux tous premiers rangs de cette nouvelle génération de géopoliticiens qui n’a guère à rougir de la comparaison avec son homologue anglo-saxonne. Souhaitons ainsi que notre collaboration contribue, aux yeux de ses lecteurs, à l’intérêt de cet ouvrage. Au-delà de la géopolitique, c’est aussi un même lien d’amitié avec le personnage hors pair qu’était Pierre-Marie Gallois, l’un des grands de cette discipline, qui a achevé de nous convaincre de commettre ensemble ce manuel de géopolitique engagé. Nous dédions La Mondialisation dangereuse à ce stratège de renommée mondiale admiré par des personnalités aussi illustres et différentes que Jean-Pierre Chevènement ou Henri Kissinger, lequel venait le consulter à Paris. Gallois nous a beaucoup transmis. Il venait d’ailleurs de la génération d’avant la mienne : il avait connu les deux guerres mondiales. Sa carrière de militaire, fut hors-norme (officier-pilote, résistant engagé dans la Royal Air Force contre l’Allemagne nazie, stratège et conseiller de Charles De Gaulle, père de la force de frappe nucléaire française, impliqué dans le programme nucléaire israélien) et son parcours intellectuel, tout d’abord au sein de la revue créée à Londres par Raymond Aron sur demande de De Gaulle, La France Libre, puis comme enseignant de géopolitique et de stratégie à l’OTAN et à l’Ecole de Guerre, puis, bien sûr comme essayiste, fut exceptionnel. Ses ouvrages 1 remarqués sur les folles aventures militaires des Etats-Unis en ex-Yougoslavie et en Irak nous inspirent encore. Dans les années 1990, alors qu’il écrivait son oeuvre, il échangeait régulièrement avec nous, à son domicile de la rue Rembrandt, à Paris, comme à l’Institut international de géopolitique de Marie France Garraud. Jusqu’au soir de sa vie, il garda son extraordinaire perspicacité quant à l’évolution du monde. Lucide jusqu’au pessimisme, mais jamais passéiste ou dépassé, ce polyglotte au savoir encyclopédique portait un regard sans concession sur l’évolution de la France, de l’Europe, de l’Occident et du monde. Il entrevoyait le désordre mondial en devenir ; le processus inexorable de la multipolarisation de l’échiquier mondial post-Guerre froide et de sa désoccidentalisation ; la montée de la Chine et des puissances émergentes et ou revanchardes d’Asie et du Sud ; le péril de l’islamisme radical, longtemps encouragé par les Occidentaux, surtout américains ; les effets paradoxaux et dangereux d’une nucléarisation militaire mondiale désormais hors de contrôle, de surcroît accélérée par la nouvelle guerre froide Occident-Russie qu’il déplorait. Il redoutait aussi les revers de la mondialisation marchande anglo- saxonne, objet central de ce livre, tout aussi incontrôlable et de plus en plus subvertie par la Chine au détriment des dindons de la farce ouest-européens, et il déplorait le processus de dévalorisation de l’intérêt général et du sens national, phénomène de société purement occidental qui promettait, selon lui, nos vieilles sociétés ouest- européennes au déclin, qu’il nommait la « sortie de l’Histoire ». Gageons qu’il ait péché par excès de pessimisme... Jacques Soppelsa 1. Géopolitique : Les Voies de la Puissance, Paris, Plon, 1990 ; La France sort-elle de l’histoire ? Paris, L’Age d’Homme, 1999 ; Le Sang du pétrole, les guerres d’Irak, 1990-2003, Paris, L’Age d’Homme, 2002 ; L’heure fatale de l’Occident, Paris, L’Âge de l’Homme, 2004. CHAPITRE I Déclin de l’Occident ? « Chaque culture traverse les phases évolutives l’homme en particulier. Chacune a son enfance, sa jeunesse, sa maturité et sa vieillesse. » Oswald Spengler, Le Déclin de l’Occident (1918) Spengler avait-il raison ? Dans son essai Le Déclin de l’Occident 1 , le philosophe allemand, adepte d’une vision des civilisations marquées par des phases d’expansion, d’apogée et de chute, annonçait le déclin de l’Occident au moment même de son zénith. Les Européens étaient les maîtres incontestés du monde, de la science, de la technologie, des échanges et de l’industrialisation. Le paradoxe n’est qu’apparent, car l’expansion et le progrès ne sont jamais des acquis définitifs et ils peuvent précéder des processus d’involution et de régression. En dépit de son déterminisme historique, Spengler avait pressenti il y a un siècle que l’Occident – alors encore colonial – allait être détrôné, rongé qu’il était déjà de l’intérieur par des doutes existentiels qui allaient en faire une civilisation complexée. Beaucoup se réfèrent encore à lui parmi les déclinistes pour annoncer le déclassement de la vieille Europe, freinée par sa réticence à employer le hard power, sa culpabilisation civilisationnelle, son formalisme juridico-constitutionnel, ses scrupules moraux qui l’empêchent d’engager une politique de puissance, comme on le constate depuis les années 2010 vis-à-vis de la Turquie conquérante d’Erdoğan. Les Européens brillent d’ailleurs de plus en plus par leur absence un peu partout dans le monde, si l’on met de côté les cas de la France et de la Grande- Bretagne. Si l’on s’interroge sur l’état actuel de l’Occident, on constate un lien évident entre ce qu’a annoncé Spengler et les conséquences de la mondialisation qui, dans sa lecture sans frontiériste, implique un effacement des identités et du principe même de souveraineté. Presque cent ans plus tard, à l’analyse de Spengler fait étonnamment écho le positionnement décomplexé des puissances du nouveau monde multipolaire comme la Russie de Vladimir Poutine, la Turquie de Recep. Tayyip Erdoğan, l’Inde de Narendra Modi, et, bien sûr, la Chine de Xi Jinping, qui semble incarner le contre-modèle – autoritaire, certes – le plus efficace face au système libéral-démocratique occidental. Ces puissances, qui voient, à tort ou à raison, l’Occident impérial comme une civilisation déclinante et décadente, sont toutes souverainistes donc aux antipodes de l’universalisme occidental. De ce point de vue, la mondialisation, comprise par les élites américaines et ouest-européennes comme le triomphe de leur idéologie planéto-libertaire devant nécessairement déboucher sur la fin des identités, peut être analysée comme une dernière phase d’un processus « morphologique » de disparition civilisationnelle pour paraphraser Spengler. Ceci conduit surtout la vieille Europe à délégitimer la puissance souveraine et sa propre identité au nom d’une vision internationaliste qui est non seulement vouée à l’échec, mais qui ne peut qu’accentuer la propension des autres civilisations à haïr l’Occident, dont l’Union européenne apparaît comme le ventre mou voué à servir les intérêts de l’Empire anglo- américain. De fait, le déclin de l’Occident complexé semble plus concerner, aujourd’hui, le Vieux Continent que les États- Unis, lesquels n’ont pas renoncé à la recherche de la puissance et de l’hégémonie, et investissent bien plus que les Européens dans l’innovation, la R&D, les applications, le soft power et la puissance militaire. Toutefois, la fracture croissante au sein de la société américaine qui oppose – jusqu’au risque de nouvelle guerre civile – l’Amérique WASP judéo-chrétienne européenne conservatrice, d’une part, à l’Amérique-monde démocrate, multiculturaliste, de l’autre, montre que la puissance étatsunienne elle-même peut être prise au piège de sa propre doxa planétariste. Notre diagnostic est que si cette idéologie de la mondialisation (McWorld) a été mise en œuvre au départ par l’hyperpuissance américaine pour asseoir sa domination planétaire en détruisant la souveraineté et les traditions culturelles des autres nations – mais pas la sienne ! –, ses effets en termes de déstructuration et d’hétérogénéisation identitaire s’avèrent à terme subversifs, y compris pour ses créateurs américains, désormais incapables de contrôler leur Golem. C’est là tout le problème « géocivilisationnel » de l’Occident. Mondialisation américaine McWorld ? Si la mondialisation marchande à l’anglo-saxonne s’est faite au détriment d’autres types de capitalismes (modèles scandinave, germano-français ou méditerranéen), c’est parce qu’elle a été lancée dans sa forme nouvelle, depuis les années 1990, par l’Empire américain et favorisée par son immense puissance de frappe financière, puis sa domination politico-stratégique, culturelle et économique sur la vieille Europe, d’ailleurs reconstruite à cette condition après la Seconde Guerre mondiale. La mondialisation marchande et consumériste, telle que nous la connaissons depuis la fin de la guerre froide, fort opposée aux précédentes mondialisations préindustrielles (mongolo-chinoise, vénitienne, génoise, portugaise ou hollandaise), est en fait une projection vers l’extérieur d’un modèle anglo-saxon capitaliste largement inspiré par les dérégulations néolibérales thatchérienne et reaganienne des années 1980 (chapitre IV). Elle a longtemps profité essentiellement aux intérêts planétaires de l’empire multiculturaliste américain piloté par le camp démocrate – aujourd’hui en guerre contre les souverainistes trumpistes – et aux multinationales qui portent ce modèle. La culture que ces puissances multinationales et digitales anglo-saxonnes venues des États-Unis diffusent (voir chapitre XII) est fondée sur le fast-food, le fast fashion, le mimétisme des stars de la pop ou d’Hollywood, l’ubérisation et la déhiérarchisation du travail, puis le fast thinking du politically correct, de la cancel culture, des revendications des minorités (positive discrimination, woke, BLM) portées à leur paroxysme dans les milieux universitaires et médiatiques, les séries de Netflix ou les réseaux sociaux des Gafam. Cependant, si l’on met à part le cas des sociétés musulmanes en voie de réislamisation radicale (chapitre VII), deux États-nations du monde multipolaire offrent une résistance farouche à ce modèle de mondialisation à l’anglo-saxonne baptisée McWorld par le politologue américain Benjamin Barber, et appellent les autres nations émergentes ou multipolaristes à réhabiliter des modèles géocivilisationnels enracinés qui remettent totalement en question l’internationalisme américano-occidental : la Russie et la Chine. Si Pékin s’oppose à McWorld en désoccidentalisant la mondialisation et en la retournant contre les États-Unis pour asseoir la domination mondiale du modèle autoritaire chinois antioccidental, Moscou accuse la mondialisation anglo-saxonne et les États- Unis de détruire les identités nationales et de menacer la souveraineté russe et sa civilisation slavo-orthodoxe. La Russie postsoviétique et poutinienne se présente même comme le dernier rempart face au déracinement opéré par McWorld et le seul pôle – multipolaire – de défense de l’Europe et des traditions judéo-chrétiennes face à une mondialisation atlantiste et marchande aux mains de l’Empire américain (chapitre V). Dans le même temps, le monde musulman remet frontalement en cause le libertarisme occidental jugé pervers et déstructurant pendant que les nations émergentes du Sud, notamment l’Inde, aux mains des adeptes du radicalisme hindoutva du parti BJP au pouvoir, le Brésil de Jair Bolsonaro ou les nations d’Afrique, du Moyen-Orient et d’Asie, allient toutes leur développement à une fierté civilisationnelle et nationaliste. La mondialisation, apogée ou crépuscule ? Pour les adeptes d’une vision idéaliste de la politique mondiale, la globalisation libérale conduirait inéluctablement à la fin des égoïsmes nationaux, à l’avènement de la paix universelle, et ne pourrait que renforcer de façon linéaire le processus de démocratisation et d’unification de la planète au profit d’un multilatéralisme pacifiant, voire d’une gouvernance mondiale. Cette idéologie de la « mondialisation heureuse », notamment portée par des penseurs libéraux comme Alain Minc 2 , Thomas Friedman (La Terre est plate), ou néo-hégéliens comme Francis Fukuyama, est aujourd’hui largement remise en question par le fait que conflits et guerres n’ont pas disparu, que la pauvreté et les inégalités progressent et que des pans entiers de la planète demeurent exclus de la digitalisation. D’après le géographe John Agnew, la mondialisation pousserait inéluctablement à l’effacement des identités et des nations. Selon lui, cinq tendances à l’œuvre depuis la fin de la guerre froide, pas forcément toujours vertueuses, seraient inévitables : l’effacement des identités nationales et ethniques à la suite de l’intensification des flux migratoires ; les inégalités croissantes conduisant à l’élargissement du fossé Nord-Sud ; la « métropolisation » comme moteur de la croissance économique mondiale ; la montée du supranationalisme au détriment des souverainetés des États-nations et la globalisation de la production et des mouvements financiers qui modifieraient et affaibliraient les marges de manœuvre économiques des États 3 . D’autres, notamment le politologue Bertrand Badie en France, ont développé cette thèse dans le sens d’une « désouverainisation » et donc d’une réduction de la puissance de l’État déclassé dans son ancien statut d’acteur majeur des relations internationales au profit d’organisations internationales, des multinationales et des firmes digitales qui annoncent l’avènement du capitalisme ubérisé et du multilatéralisme. Le présent essai prend le contre-pied de cette lecture idéologique de la mondialisation, car en tant que théâtre d’échanges, de rivalités et de conflits entre puissances, la mondialisation, processus en réalité neutre, peut favoriser l’expansion de puissances hégémoniques, souverainistes ou même néo-impériales qui savent la canaliser, comme les deux supergrands chinois et étatsunien, notamment. Notre analyse prend acte de l’essoufflement d’une idéologie qui se heurte de plein fouet au réel et dont les promoteurs et protagonistes (institutions internationales, multinationales, Gafam, dirigeants des pays occidentaux) sont de plus en plus remis en cause par les États-nations et les peuples, demandeurs de « resouverainisation » et donc de démondialisation. Notre thèse soutient que le processus de mondialisation n’a pas abouti à la disparition des identités et des États, car il intensifie avant tout une concurrence entre États, seuls ceux qui ne savent pas en tirer profit ou ne sont pas assez performants ou volontaires perdent de leur puissance souveraine. La mondialisation désigne en fait simplement le processus d’interconnexion à l’échelle planétaire des affaires et des communications qui s’est accéléré avec la fin de la guerre froide et l’ouverture des anciens pays communistes à la liberté de circulation des biens, des informations et des personnes. Il s’agit là d’une prolifération mondiale de technologies de pointe qu’il convient de ne pas confondre avec les utopies cosmopolites liées aux projets de conquête mondiale qui ont toujours existé dans l’histoire (Alexandre le Grand, Empire mongol, communisme soviétique, etc.) avec souvent peu de durabilité en raison de leur caractère coercitif, générateur de réactions antihégémoniques (Brzezinski). Dans la mesure où cette vision a été essentiellement conçue et portée au départ par des pays occidentaux, la mondialisation est par ailleurs souvent perçue par d’autres civilisations, qui forment les quatre cinquièmes du globe, comme un avatar de l’impérialisme occidental. Dans son ouvrage La Revanche de la géographie, le politiste américain Robert D. Kaplan explique que cette mondialisation, loin de supprimer les identités lorsqu’elle affaiblit l’État, peut au contraire les réveiller, et même les radicaliser en réaction : « Le pouvoir né de la communication de masse [...], les technologies de communication, ont permis la montée en puissance des mouvements panislamiques, de l’Afrique noire à l’Asie, et elles ont facilité les soulèvements populaires dans de nombreux États musulmans 4 . » Cette idée est présente également dans les analyses de Samuel Huntington, pour qui la mondialisation et Internet n’ont pas fait disparaître les identités des peuples, mais ont permis a contrario à ces derniers d’accéder à une « conscience civilisationnelle » déterritorialisée et plus large, de sorte qu’un exilé serait aujourd’hui bien plus lié à son pays d’origine et s’assimilerait bien moins facilement à la société d’accueil qu’avant l’ère des télécommunications où les émigrés étaient coupés de leur milieu d’origine par les lois de la géographie. De ce point de vue, la mondialisation – au sens neutre et technologique et non politique du terme – n’empêche pas les appartenances de compter dans les dispositifs politiques et géopolitiques. Elle favoriserait même la constitution de pôles géoéconomiques et civilisationnels : accords de libre-échange du nord de l’Amérique (Alena, voir cartes n o 3 et 4 5 ), Union européenne et AELE, Communauté des États indépendants et Union économique eurasiatique 6 (ex-URSS), OCS (Organisation de la conférence de Shanghai qui réunit Russie, Chine et quatre pays d’Asie centrale opposés à l’Otan, voir carte n o 3), pays de l’Est asiatique (Asean, Apec, voir cartes n o 3 et 4), Conseil turcique, qui réunit cinq États turcophones : Turquie, Azerbaïdjan, Kazakhstan, Ouzbékistan et Kirghizstan (voir carte n o 11), monde islamique (cinquante-sept pays musulmans de l’OCI, Ligue islamique mondiale), zones de libre-échange latino-américaines et interafricaines 7 . Les blocs géoéconomiques (voir carte n o 2), ethnoreligieux, les particularismes, les séparatismes et les conflits identitaires sont en fait encouragés par la globalisation, de ce fait régionalisée, tandis que le côté « unificateur » universaliste de cette dernière ne touche que les intelligentsias occidentales mondialisées. On ne rappellera d’ailleurs jamais assez que l’ensemble des puissances émergentes/réémergentes du monde non occidental (Russie, Chine, Inde, Brésil, pays émergents, non alignés), donc multipolaire, n’a pas du tout renoncé aux souverainetés et identités nationales, ni aux politiques de puissance qui sont présentées comme un mal absolu par l’Union européenne. Bien au contraire. Totalement opposés à la gouvernance occidentale, les adeptes du multipolarisme revendiquent un ordre mondial décentralisé fondé sur l’autonomie, la non-ingérence dans les affaires intérieures de chacun et le rejet de l’universalisme occidental considéré comme un masque d’une nouvelle forme d’impérialisme arrogant et hypocritement moralisateur (droits de l’homme, politiquement correct, pandémocratisme, etc.). La mondialisation n’affaiblit donc que les États déjà amoindris et/ou démissionnaires de leur souveraineté. Elle renforce au contraire les États stratèges adeptes de la Realpolitik et de la guerre économique qui cherchent à instrumentaliser la mondialisation vue comme un levier de concurrence et d’expansion de leurs puissances. La Chine est à cet égard l’exemple parfait de cette vision antimondialiste et souverainiste de la globalisation. Ventres mous civilisationnels versus ventres durs identitaires Le lien entre géopolitique et identité constitue l’un des fils rouges du présent ouvrage. Nous postulons que les nations ou les civilisations qui diluent leurs identités au nom de la mondialisation et du multilatéralisme renoncent de ce fait, tôt ou tard, à leur puissance et à leur souveraineté et mettent ainsi en péril leur avenir d’un point de vue géocivilisationnel. Schématiquement, on peut diviser l’échiquier géopolitique mondial en deux catégories d’acteurs. La première est composée de puissances souverainistes qui s’appuient sur leur identité civilisationnelle et défendent leurs intérêts nationaux et qui voient la mondialisation comme un champ d’expansion de puissances rivales ou antagonistes. Cette catégorie comprend notamment des nations émergentes et identitaires caractérisées par une croissance économique soutenue et un activisme sur la scène internationale. On trouve parmi celles-ci entre autres la Chine, la Russie, l’Inde, la Turquie, les émergents du Sud et les États-Unis (qui sont, certes, en perte de vitesse et plus isolationnistes qu’interventionnistes depuis une vingtaine d’années). Ces puissances participent toutes à une reconfiguration des relations internationales causée par la fin du monde bipolaire et l’émergence de la multipolarité marquée par un déplacement de l’épicentre géopolitique du monde de l’ouest vers l’est de l’Eurasie. La deuxième catégorie est composée d’acteurs géopolitiques de second ordre ou d’anciennes nations hégémoniques ou coloniales d’Europe de l’Ouest ayant volontairement renoncé à toute politique de puissance et de civilisation. Certains d’entre eux, dépourvus de ressources, stagnent sur le plan économique et, pour des raisons évidentes, sont plus sujets qu’acteurs des relations internationales. D’autres se retrouvent dans une impasse historique par manque de volonté et surtout par un refus idéologique de mettre au premier plan la défense des intérêts nationaux et des citoyens autochtones au nom d’un multiculturalisme naïf et d’un multilatéralisme incarnés par l’ONU et l’Union européenne. Ces deux organisations, impuissantes sur le plan international, plaident pour l’émergence d’intérêts supranationaux – qui par définition n’existent pas – et ne peuvent justifier leur existence qu’en promouvant l’effacement des frontières des pays qui acceptent d’abdiquer leur souveraineté, sans pour autant parvenir à créer une nouvelle souveraineté supranationale. Ce dernier groupe en voie de désouverainisation, donc en train de « sortir de l’Histoire », comme l’avait annoncé le général Gallois, comprend les États de l’Europe continentale dont le processus de déclassement en cours découle de l’illusion que leur richesse économique passée et leur idéologie pacifiste et multiculturaliste les protégeront indéfiniment du monde extérieur. Pris au piège de l’illusion dangereuse selon laquelle ils vivront indéfiniment protégés des menaces externes par leur pacifisme et leur renoncement à l’identité, ces non-puissances ouest-européennes ne semblent plus capables de défendre sur leur sol leurs propres valeurs et civilisation, menacées non pas par une immigration extra-européenne qui serait positive si elle était assimilée, mais par les appétits de conquête de prédateurs externes : la Chine impériale renaissante, l’empire acculturant McWorld, et les puissances revanchardes panislamistes, comme la Turquie néo-ottomane d’Erdoğan, qui instrumentalisent l’ouverture européenne et y embrigadent les communautés immigrées musulmanes pour servir leur expansionnisme, remplissant ainsi le vide laissé par les États désouverainisés et désindustrialisés d’Europe occidentale. Déclassement de l’Occident et mondialisation du virus La perte d’attractivité et de magistère moral des Occidentaux au profit des modèles multipolaristes, qui s’est accrue depuis la fin du siècle dernier, a été considérablement amplifiée par les crises sanitaires (chapitre X et XII) et économico-financières de 2008-2020, accélérant ainsi le double processus de « démondialisation » (chapitre XIV) et de désoccidentalisation du monde en voie de multipolarisation. La crise de la Covid-19 a retiré les dernières illusions de ceux qui croyaient encore à la supériorité des acquis, valeurs et avancées de la civilisation occidentale par rapport au reste du monde. Avec un recul de près de deux ans déjà, la Chine autoritaire, considérée jadis comme condamnée à l’imitation et donc à être toujours à la traîne de l’Occident triomphant et vertueux, a démontré qu’elle était capable de gérer de manière bien plus efficiente que l’Europe la présente crise, à la fois sur les plans sanitaire, technologique, économique, diplomatique et financier, et qu’elle n’est plus suiviste mais avant-gardiste. Elle compte même pleinement profiter de l’effondrement économique et social de la civilisation européenne pour pouvoir s’imposer d’ici quelques années comme la première puissance économique et géopolitique mondiale (chapitre XIII). La Chine et son aire géocivilisationnelle sont les zones où la croissance positive oscille à nouveau depuis fin 2020 entre 6 et 10 % par an, pendant que l’hémisphère nord-occidental en voie de paupérisation continue son lent déclin géopolitique et technologique, Europe de l’Ouest en tête. Les États-Unis restent, certes, combatifs et résilients, tandis que l’Europe peine à devenir un acteur géopolitique identifiable. La recherche, par le pouvoir de Pékin, de la suprématie mondiale passera par la maîtrise du numérique, des nanotechnologies, des neurosciences, de la 5G (chapitre IX), de la génétique, de l’espace, et même de la transition écoénergétique (chapitre XII), qui ont été lancés par les Occidentaux mais que la Chine leur ravit en profitant de leur incapacité à mettre en œuvre des plans de développement et d’investissement ambitieux et de long terme (R&D). En cause aussi, l’avidité de leurs multinationales qui ont accepté de facto d’être pillées technologiquement par Pékin en échange de facilités de délocalisations et de contrats commerciaux léonins... Dans ce contexte, la question qui vient naturellement à l’esprit est celle de la pertinence du modèle chinois, et, plus largement, la plus grande efficience des modèles autoritaires asiatiques ou illibéraux et de la prévalence de la stabilité à l’asiatique, qui concilie les opposés (yin et yang) puis privilégie le groupe à l’individu et l’ordre social à la liberté hédoniste à l’occidentale, de plus en plus associée à l’ingouvernabilité et au chaos. Les leçons de la gestion chinoise et asiatique de la crise sanitaire Avec le recul nécessaire, un an et demi après les premiers confinements qui ont paralysé et continuent de paralyser les pays occidentaux (surtout l’Union européenne) – faute de lits suffisants dans les hôpitaux, de discipline et de fermeture des frontières –, les modèles alternatifs confucéens de Taiwan, Singapour, Corée du Sud et a fortiori de la Chine ont incontestablement fait preuve d’une plus grande efficacité, au prix d’une fermeture précoce des frontières, d’un traçage massif liberticide, de quarantaines drastiques, mais relativement courtes, et d’une emprise technologico-politique sur les citoyens. La Chine, d’où est parti le virus, a jugulé la pandémie puis est parvenue à transformer rapidement cette catastrophe économico-sanitaire en une occasion d’accélérer le déclassement d’un Occident qui n’a pas semblé tirer les leçons de son hyperdépendance vis-à-vis de l’usine du monde chinoise désormais autonomisée. Soudainement, le modèle nationaliste-maoïste-confucéen, fondé sur l’ordre autoritaire et la soumission des individus à l’État-nation, s’est posé en alternative au rêve libertaire sans frontiériste occidental dépeint par Thomas Friedman dans son ouvrage La Terre est plate, qui annonçait un monde unifié sur les ruines des identités et des frontières au nom d’un consumérisme anglophone planétaire. Les questions qui viennent alors à l’esprit, d’un point de vue géopolitique, sont les suivantes : ce monde « plat » promis par les adeptes de la « mondialisation heureuse » est-il seulement un modèle viable ou au contraire dangereux pour ceux qui en sont dupes ? Le projet de suprasociété mondiale mis en œuvre par les élites de McWorld (Benjamin Barber, voir infra) ne s’apparente-t-il pas à une périlleuse utopie déconstructrice ? Celle-ci n’a-t-elle pas déjà fait disparaître des milliers de langues minoritaires, donc des cultures, au nom même d’une fausse « diversité » uniformisatrice ? Cette mondialisation n’est-elle pas menaçante lorsqu’elle délégitime l’État-nation – pourtant le plus à même de protéger les citoyens et de faire respecter un « vouloir-vivre ensemble », lorsqu’elle déconstruit ou diabolise les traditions, les normes sociales, les valeurs et les principes d’autorité au nom d’un libertarisme consumériste, alors que les normes et l’autorité sont vitales pour échapper à la barbarie ? La diabolisation de l’identité portée par ce projet de Village mondial (« Global village 8 ») au nom d’une pensée « cosmopolitiquement correcte » n’est-elle pas une trahison de la diversité qui, par essence, est composée d’identités ? Face à ce risque d’anomie bien analysée par les sociologues, la Chine autoritaire, qui n’est pas dupe de la confusion fâcheuse entre mondialisme et mondialisation, et qui utilise au contraire cette dernière pour servir ses intérêts nationaux (« post-mondialisation »), apparaît de plus en plus comme un modèle alternatif efficient. Elle nous rappelle que le monde multipolaire qui se dessine n’est pas seulement fait de pôles émergents et de puissances jalouses de leurs prés carrés géopolitiques, mais aussi de polycentrisme des valeurs, celles de l’Occident libertaire- mondialisé étant perçues par les autres civilisations comme une menace idéologique anarchisante, acculturante et civilisationnellement mortelle. La crise de la Covid-19 a brutalement rappelé les effets parfois tragiques de la mondialisation marchande. Ses effets néfastes ont déjà fait leurs preuves avec la prolifération ininterrompue – depuis les années 1990 – du crime organisé transnational (chapitre VIII), de l’islamisme radical (chapitre VII), de la pollution environnementale et des délocalisations/désindustrialisation, génératrices d’hyperdépendance ; de l’appauvrissement culturel et de la destruction des liens réels liés aux réseaux sociaux mondialisés et aux industries du divertissement et médias ; sans oublier les migrations incontrôlées et l’affaiblissement des souverainetés et identités nationales qui préparent, en réaction, un violent retour du refoulé identitaire. C’est d’ailleurs probablement pour avoir osé annoncer – dans son ouvrage prémonitoire, Le Choc des civilisations – que la mondialisation marchande et l’empire consumériste McWorld n’allaient pas créer une fraternité universelle mais au contraire accentuer les chocs de civilisations et conflits identitaires que Samuel Huntington a été conspué par l’intelligentsia occidentale. L’Europe dupe de son interprétation utopique de la mondialisation La thèse majeure du présent essai est que la mondialisation a révélé les vulnérabilités majeures de l’Europe, ventre mou de l’Occident, qui se retrouve, de par son ouverture sans limites, exposée à toute une série de nouveaux défis qu’elle peine encore plus que les autres grandes puissances à relever : pandémie, chômage endémique, crises économiques et financières récurrentes, dépopulation des campagnes, vieillissement, fuite des cerveaux (notamment vers les États-Unis), bureaucratisation, anémie entrepreneuriale, délocalisations industrielles, dumping social asiatique, concurrence déloyale chinoise, islamisme conquérant, immigration incontrôlée, terrorisme, trafics de drogue et crime organisé, rivalités énergétiques et menaces hydriques. Un des effets secondaires et curieux de ce processus est que les Européens sont les seuls dans le monde à rejeter et diaboliser leur identités et frontières alors que les autres nations non occidentales, à commencer par la Chine, l’Inde, la Turquie, l’Asie du Sud-Est (etc.), se développent en réaction à l’universalisme occidental et utilisent au contraire la mondialisation comme un levier de leur puissance nationale et civilisationnelle. Derrière l’utopie consumériste, hédoniste et politiquement correcte de McWorld, les autres nations du monde multipolaire en gestation et a fortiori la Chine et ses alliés décèlent une nouvelle forme d’impérialisme cognitif déterritorialisé essentiellement incarné par les puissances anglo-saxonnes (« lutte pour les cœurs et les esprits », selon la doctrine du général américain David Petraeus). Cet impérialisme anglo-saxon, incarné par le soft power étatsunien d’Hollywood, des Gafam (chapitre XII), des applications, et son protectorat ouest-européen (Otan), cherche en fin de compte, sous couvert d’universalisme, à effacer les identités, traditions et souverainetés des autres acteurs, donc la diversité elle-même. Et en même temps que McWorld tente avec de moins en moins de succès d’uniformiser les mœurs à la façon libertaire, l’Occident piégé par sa lecture mondialiste de la globalisation scie la branche sur laquelle il est assis en participant à l’effacement de sa propre civilisation et de ses normes et valeurs morales fondatrices. À cet impérialisme cognitif de l’Occident mondialisé, le reste du monde en voie de multipolarisation résiste. Principalement la Chine (Gafam chinois), la Russie avec Yandex, et même l’Inde, ces pays cherchant par ailleurs à se débarrasser de l’hégémonie du dollar et à fonder des institutions internationales multipolaires alternatives à celles créées par les Occidentaux depuis 1945. Nous verrons dans les chapitres suivants que le nouveau Grand Jeu stratégique 2.0 ne fait que commencer. Cette période de mutation ne se fera pas, certes, sans que l’hégémon planétaire américain ne dise son dernier mot, donc pas sans réactions et conséquences lourdes en termes de déstabilisation, de remises en question du statu quo mondial actuel occidentalo-centré, et d’inéluctable rééquilibrage par de nouveaux rapports de force et de nouveaux pivots géostratégiques mondiaux. À l’ancienne dichotomie The West and The Rest se substitue désormais une nouvelle division des zones de puissance réparties entre l’Asie et le Reste du monde, l’Occident devant s’adapter à la perte progressive de son hégémonie planétaire comme de son magistère moral, idéologique et sociétal, largement démonétisé et contesté. Comme nous l’avons vu à l’aune de la gestion par les différents pays de la pandémie mondiale de la Covid-19, le statut des puissances sur le nouvel échiquier multipolaire sera redéfini en partie en fonction des capacités de chacune à gérer les crises sanitaire, économique et financière en cours. Les conséquences de ces crises, aux fortes implications sociopolitiques, technologiques, industrielles et géopolitiques, auront des effets multiples et profonds durant toute la décennie en cours. Désoccidentalisation, antiaméricanisme et rejet des institutions multilatérales héritées de 1945 Le centre de gravité du capitalisme, des échanges internationaux, et donc de la mondialisation marchande, est en train de basculer des États-Unis et de l’Occident vers l’Asie. Parallèlement, les institutions internationales créées sous l’impulsion américaine sont remises en question par les nouveaux acteurs géopolitiques du monde postguerre froide en voie de multipolarisation. Depuis le 11 septembre 2001 et leurs coûteuses interventions en Afghanistan, en Irak ou ailleurs, qui ont contribué à augmenter le chaos mondial, les États-Unis ont perdu une grande partie de leur capacité de séduction planétaire, même si leur industrie du divertissement, et donc leur instrument de soft power, continue d’inonder l’humanité et d’imprimer les consciences. Le politologue et stratège américain Zbigniew Brzezinski, dans son ouvrage Le Grand Échiquier, faisait cette remarque, certes cynique, quant au soft power américain : « la nature cosmopolite de la société américaine, écrit-il, a permis aux États-Unis d’asseoir plus facilement leur hégémonie dans le monde sans laisser transparaître son caractère strictement national [...]. La domination culturelle des États-Unis a jusqu’à présent été un aspect sous-estimé de sa puissance globale. Quoi que l’on pense de ses qualités esthétiques, la culture de masse américaine exerce sur la jeunesse en particulier une séduction irrésistible. Les programmes américains alimentent les trois quarts du marché mondial de la télévision et du cinéma. De ces avantages, [...] l’Amérique tire un prestige politique et une marge de manœuvre inégalés 9 ». Toujours est-il que l’Occident, associé à cette culture mondiale consumériste, déconstructrice de valeurs et d’identités, est de plus en plus rejeté par les protagonistes du monde multipolaire. Du fait de la neutralité des technologies dont les Occidentaux n’ont plus le monopole, ces puissances non occidentales sont déjà en train de démondialiser et de désoccidentaliser la globalisation, dans le cadre d’une « seconde décolonisation » (chapitre IV), parfois revancharde. Les valeurs des démocraties occidentales ne sont plus la norme. Leur universalisme discrédité par leurs entreprises guerrières, leur soutien aux révolutions de couleur qui ont déstabilisé maints régimes en ex- Union soviétique, dans les Balkans et dans le monde arabe, et leur impérialisme culturel – dont se félicitait Brzezinski – sont perçus par d’autres nations et civilisations comme un poison acculturant et le cache-sexe d’une hégémonie, sous couvert de défense des droits de l’homme et de démocratie libérale. Signe de cette perception très négative de l’universalisme libéral occidental, le document 9 du Parti communiste chinois de 2013 citait parmi les « sept périls principaux » pour l’État chinois : le « nihilisme, la démocratie constitutionnelle occidentale et les valeurs universelles occidentales 10 » ! Défis géopolitiques : constantes et variables Les différents et complexes enjeux de la mondialisation sont analysés ici dans le cadre de la démarche géopolitique. Rappelons tout d’abord ce que recouvre ce concept, longtemps ignoré (notamment des institutions universitaires) et qui a aujourd’hui littéralement inondé les médias. La géopolitique, terme popularisé il y a plus d’un siècle par le Suédois Rudolf Kjellén 11 , à la différence de la géographie politique, qui décrit l’organisation du monde divisé en États à un moment donné, analyse, d’après le général Pierre Marie Gallois, « l’influence du milieu sur l’Homme », ou encore, « l’étude des relations qui existent entre la conduite d’une politique de puissance et le cadre géographique dans lequel elle s’exerce 12 ». Pour Yves Lacoste, la démarche géopolitique « analyse les rivalités de pouvoir sur des territoires, en confrontant les points de vue des différents protagonistes 13 ». Cette dernière définition rend compte des représentations antagonistes développées par chaque camp dans le cadre de la revendication du pouvoir sur le territoire convoité, élément que nous avons défini comme la « guerre des représentations 14 ». Au-delà de ces différentes acceptions, soulignons d’emblée que certains facteurs sont relativement stables et d’autres beaucoup plus conjoncturels. Bref, il est incontournable de distinguer entre des « tendances lourdes » d’une part, et les « variables contemporaines », de l’autre, telles que définies par Fernand Braudel dans La Grammaire des civilisations. Les tendances lourdes Les tendances lourdes correspondent à des évolutions observées sur une longue période et reposent fondamentalement sur deux types de dimensions : celles qui sont liées à la géographie (l’Espace), et celles qui émargent à l’histoire (le Temps). Ce croisement entre temps et espace invite bien sûr les géopolitologues à accorder une place importante au facteur identitaire et donc aux appartenances civilisationnelles, forces motrices des « temps longs de l’Histoire », pour paraphraser Braudel. Pour ce qui est de la géographie, la taille et la position d’un État, par exemple, notions certes banales, sont déterminantes. L’existence d’une façade maritime ou son absence et donc la recherche d’un accès à la mer, figure depuis des siècles aux tout premiers rangs des préoccupations majeures des grandes nations (voir chapitre X), cet ouvrage évoquant notamment le cas de l’Arménie enclavée et prise en tenailles par ses ennemis turco-azéris, ou celui de la Russie-URSS qui a toujours recherché un accès aux « Mers chaudes 15 », d’où les tensions russo- atlantistes actuelles en mer Baltique, en mer Noire (Ukraine/Crimée), ou même passées lors de l’alliance entre les États-Unis et les moudjahidines après l’invasion soviétique de l’Afghanistan, sur la route directe de l’océan Indien. Comment ne pas souligner également le rôle ancestral (conforté par la mondialisation et l’essor soutenu du commerce international) joué à l’échelle de la planète par les isthmes et les détroits, de la Sonde à Gibraltar, du Bosphore au Sud scandinave, de l’isthme de Panamá à celui de Suez. Les données climatiques et biogéographiques ont aussi joué un rôle difficilement négligeable. Les armées napoléoniennes furent en effet vaincues non par Koutouzov ou Bagration, mais plus efficacement par le « général Hiver », le plus fidèle allié des Russes durant plusieurs siècles. De même, durant la guerre des Malouines, nombre des neuf cent vingt victimes argentines, mal préparées et sous-équipées, provenant des provinces intertropicales du nord du pays, sont morts de froid et pas seulement des offensives de l’armée britannique. Quant au rôle de l’eau, il constitue depuis des siècles un élément majeur des typologies régionales et zonales esquissées ici et là, avec, pour simplifier, au plan des précipitations proprement dites, trois types de situations : les nations à climat tempéré, bénies des dieux ; celles qui souffrent de la surabondance pluviométrique, du Bangladesh aux Maldives ; et les zones désertiques ou semi-désertiques, de la Mongolie au Sahel ou à l’Arabie saoudite... Enfin, la place des grands fleuves dans l’émergence et l’épanouissement de certaines civilisations ne prête guère à contestation : imagine-t-on l’Égypte sans le Nil ou la Mésopotamie sans le Tigre et sans l’Euphrate ? (chapitre XII sur les guerres de l’eau). Les données de l’Histoire sont tout aussi fondamentales. Songeons par exemple (nous y reviendrons dans les deux chapitres qui suivent) à la multiplication des conflits intraétatiques générés en Afrique subsaharienne par les vagues de décolonisation et le caractère artificiel des frontières imposées par les anciennes métropoles ; au rôle majeur des schismes tout au long de l’histoire de l’Islam, et tout particulièrement aux tensions ancestrales entre sunnites et chiites ; aux données démographiques (chapitre X) liées au contexte religieux ; à la donne linguistique (à l’image de la place de la Francophonie – voir chapitre V – au cœur du Pacifique Sud), ou encore aux liens culturels et socioculturels... On pourrait également rappeler l’alliance des « Five Eyes » (abrégé FVEY), qui unit de façon très stratégique, et au détriment de leurs autres partenaires de l’Otan et de l’UE, allègrement espionnés, les services de renseignement de cinq pays frères anglo-saxons partageant une même langue (voir chapitres VIII et XIV), une même civilisation, et une partie d’histoire commune : Australie, Canada, Nouvelle-Zélande, Royaume-Uni et États- Unis. La Grande-Bretagne partage d’ailleurs sa souveraineté nucléaire avec les États-Unis et a longtemps espionné pour le compte de la National Security Agency (NSA) ses propres partenaires de l’Union européenne avant de finir par quitter cette dernière... De Gaulle n’avait ainsi pas entièrement tort de dire qu’elle était un « cheval de Troie des États-Unis en Europe ». C’est ainsi qu’en toute logique géopolitique, Winston Churchill déclarait à la veille du débarquement de Normandie : « Chaque fois qu’il nous faudra choisir entre l’Europe et le grand large, nous serons toujours pour le grand large. » Et le célèbre dirigeant anglais précisa, lorsqu’il proposa la création des « États-Unis d’Europe », que son pays fût « with it, not in it »... Témoin aussi le poids de certaines Constitutions : un exemple édifiant est illustré par le triple refus (à portée internationale), sous les présidences démocrates de Woodrow Wilson, de Jimmy Carter et de Bill Clinton, décidé par un Congrès à majorité républicaine, de ratifier un traité international signé par le Président : non-ratification du traité Salt II en 1977 (voir chapitre VII), sous Carter ; non-ratification du traité d’interdiction complète des essais nucléaires (CTBT 16 , voir chapitre III) en 1999, sous Clinton et, plus spectaculaire encore, non-reconnaissance, par le Congrès, de la Charte en quatorze points créant notamment, le 19 mars 1920, la Société des nations, une charte conçue et proposée par Woodrow Wilson en personne. À preuve encore du poids de l’Histoire, l’interventionnisme des superpuissances durant la période bipolaire, dans le cadre de la logique des Blocs, ou, depuis 1990, celui des États-Unis, volontiers gendarmes du monde, systématiquement lié à un credo inébranlable : les États-Unis sont bénis de Dieu (God bless America) et bénéficient des effets de la « Destinée manifeste » et du « efficiency first for us ». Il est donc de leur devoir de contribuer à implanter les vertus de la démocratie américaine partout dans le monde, même si les nations et les peuples concernés ne sont pas demandeurs. Variables contemporaines Toutefois, les tendances lourdes peuvent être, ici ou là, perturbées par l’impact de variables contemporaines : coups d’État, restauration de la démocratie, changements d’alliances, dévaluation monétaire, crises économiques ou sanitaires (Covid-19, voir chapitres X et XIII), découvertes plus ou moins inopinées de ressources minérales ou énergétiques... Ce constat rend compte également qu’au-delà de la définition même de la géopolitique, l’approche de cette dernière est, depuis des générations, partagée entre deux sensibilités : considérer effectivement que le poids des tendances lourdes est primordial, s’inscrivant ici dans l’héritage d’illustres ancêtres (Jules César qui, à la veille de la conquête de la Gaule, fait étudier minutieusement par ses conseillers les spécificités géographiques du territoire à conquérir et les mœurs et coutumes de ses futurs adversaires ; Richelieu, père des « frontières naturelles », Frédéric II ou Bismarck...), ou au contraire privilégier les variables contemporaines, à l’image de Tamerlan, de Napoléon Bonaparte, du Vietnamien Giap ou des théoriciens comme John Frederick Charles Fuller et Pierre Marie Gallois, lointains disciples du plus génial des géostratèges : Alexandre le Grand. Notre analyse géopolitique associe donc ces deux approches, dans le cadre d’une vision holistique et pragmatique des relations internationales et de l’étude des rivalités de pouvoirs sur des territoires disputés. Ces disciplines, qui se doivent d’être menées de façon dépassionnée et désidéologisée, sont de ce fait aux antipodes du manichéisme idéologique et donc de tout politiquement correct : géopolitologues et stratèges postulent en effet que les États-nations – acteurs géopolitiques majeurs – ont et continueront toujours d’avoir des intérêts froids et des alliés comme des ennemis ; que seuls ceux qui renoncent à leurs prérogatives régaliennes seront désouverainisés par la mondialisation ou le supranationalisme ; et enfin qu’ils sont condamnés à conduire des politiques de civilisation et à se préparer à des menaces – internes ou externes –, à la guerre économique ou à la guerre tout court, s’ils ne veulent pas disparaître. Car l’humanité est hélas encore très loin d’avoir atteint le stade de la sagesse, de la paix universelle ou de la « conscience cosmique »... 1. Oswald Spengler, Le Déclin de l’Occident, Paris, Gallimard, 1948. 2. Voir Alain Minc, La Mondialisation heureuse, Paris, Pocket, 2019 ; et Francis Fukuyama, La Fin de l’histoire et le dernier homme, Paris, Flammarion, 2009. 3. John Agnew, Geopolitics, Re-Visioning World Politics, Londres/New York, Routledge, 2003, p. 127. 4. Robert Kaplan, La revanche de la géographie, L’Artilleur, 2014. 5. L’accord nord-américain renégocié par Donald Trump en 2019 qui remplace depuis juillet 2020 l’Alena est l’Accord Canada-États-Unis- Mexique (ACEUM). 6. Cette organisation réunit l’Arménie, la Biélorussie, le Kazakhstan et le Kirghizistan. 7. Alexandre Del Valle, « La mondialisation en question et le destin de l’Occident », Géoéconomie, n o 72, septembre 2014, p. 29-48. 8. Marshall McLuhan, The Gutenberg Galaxy: The Making of Typographic Man, Toronto, University of Toronto Press, 1962. 9. Zbigniew Brzezinski, Le Grand Échiquier. L’Amérique et le reste du monde, Paris, Bayard, 1997. 10. Michel Geoffroy, La Nouvelle Guerre des mondes, Via Romana, Paris, 2020. 11. Friedrich Ratzel, Anthropogeographie. Die geographische Verbreitung des Menschen, Stuttgart, J. Engelhorn, 1882-1891. Pour Jacques Soppelsa, la géopolitique « analyse les principaux facteurs dynamiques rendant compte de ladite organisation, pour aboutir à la synthèse d’une situation politique existante et de ses potentialités ». 12. Pierre Marie Gallois, Géopolitique. Les voies de la puissance, Paris, Plon, 1990. 13. Yves Lacoste, Géopolitique. La longue histoire d’aujourd’hui, Paris, Larousse, 2006. 14. Alexandre Del Valle, Le Complexe occidental, Paris, Toucan, 2014. 15. Comme l’avait démontré l’illustre amiral russo-soviétique Gorchkov, devenu le nom du porte-avions éponyme. 16. Le Traité international « Comprehensive Test Ban Treaty » (CTBT, « Traité d’interdiction complète des essais nucléaires », TICEN) engage chaque État à ne pas réaliser d’explosions expérimentales d’armes nucléaires. Ouvert à la signature le 24 septembre 1996, il n’est jamais entré en vigueur. En 2020, 36 États sur 44 ont ratifié le texte. PARTIE I LES TENDANCES LOURDES CHAPITRE II La période contemporaine : ordre ou désordre ? « Un bon politicien est celui qui est capable de prédire l’avenir et qui, par la suite, est également capable d’expliquer pourquoi les choses ne se sont pas passées comme il l’avait prédit. » Winston Churchill Avant d’analyser en détail les différents aspects de la mondialisation dangereuse, il est important de revenir en préalable sur les différentes interprétations de ce qu’allait devenir, selon les plus grands auteurs anglo-saxons, le nouvel ordre international postguerre froide. Ceux-ci ont émis des hypothèses a priori contradictoires quant à la configuration du « nouvel ordre mondial », annoncé par George H. Bush en 1990. La relecture de ces grandes écoles de pensée s’interrogeant sur l’avenir du monde postbipolaire peut nous inciter, rétrospectivement, à critiquer ou valider leurs analyses à vocation plus ou moins prédictive, d’autant qu’elles ont toutes abordé d’une façon ou d’une autre la question de la mondialisation et du devenir de l’Empire américano-occidental, aujourd’hui contesté dans ses fondements mêmes par les outsiders. Cinq courants peuvent être distingués en la matière : l’école « unipolariste décliniste », autour des travaux de Paul Kennedy ; le courant « unipolariste optimiste » de Francis Fukuyama ou Joseph Nye ; l’école de l’empire face à ses ennemis, de Zbigniew Brzezinski et Graham Allison ; le paradigme civilisationnel de Samuel Huntington ; la critique de la mondialisation anglo-saxonne productrice de réactions identitaires (Djihad versus McWorld) par Benjamin Barber. 1) Le « déclinisme » de Paul Kennedy. La vision de cet auteur britannique, auteur d’un essai majeur sur le déclin de l’Empire américain 1 , est relativement simple : l’univers bipolaire a disparu, relayé par un monde unipolaire dominé provisoirement par les États-Unis condamnés, à plus ou moins brève échéance, à un inexorable déclin. Son argument central est que : « Tout Empire périra », selon la célèbre expression de Jean Baptiste Duroselle (1981). Trente ans plus tard, force est de constater que son verdict pessimiste a été singulièrement contredit par les faits : les États-Unis, au cours de cette période, n’ont nullement renoncé à leur statut d’hyperpuissance. Il n’est certes pas question de minimiser aujourd’hui la sévère crise financière et boursière qui a secoué l’économie américaine en 2007 ; ni de nier les conséquences dramatiques des initiatives de l’administration Bush Junior en Irak. Il est aujourd’hui encore trop tôt pour pouvoir émettre un jugement objectif sur les prises de position d’un Donald Trump entre 2016 et 2020, d’autant que, en comparaison avec ses prédécesseurs, Trump aura été plutôt un non- interventionniste et n’a pas commis les graves erreurs de politique étrangère de Bill Clinton, George Bush père et fils et même Barack Obama (guerres d’ex-Yougoslavie, Irak 1 et 2, Libye, Afghanistan). Beaucoup d’experts brodent sans état d’âme sur le déclin de l’Empire américain, que la nouvelle superpuissance chinoise cherche à déclasser. Ils ont oublié la rigoureuse mise en application du programme de « Missile Defense » (bouclier antimissile susceptible d’assurer la protection du territoire américain et des alliés), sur laquelle nous reviendrons, et proclament un peu trop hâtivement la fin de l’hyperpuissance américaine avant même qu’elle n’ait été vaincue... En réalité, le déclin semble bien plus frapper l’Europe que les États-Unis. Les États-Unis restent en effet la première et la seule puissance capable d’intervenir dans tous les recoins de la planète, grâce à ses 745 bases militaires dans 149 pays, ses 7 flottes, son budget de défense annuel de 720 milliards de dollars, autant que le budget total de tous les autres pays réunis (et 4,2 fois plus que celui de la Chine – 178 milliards USD). Sa domination satellitaire et technologique, son soft power culturel et sociétal universel, l’impérialisme de sa monnaie, l’Alliance atlantique, plus puissant système de défense mondial, sa maîtrise des institutions internationales (certes en décroissance, mais encore importante), et sa pratique des juridictions coercitives extraterritoriales, demeurent des instruments hégémoniques redoutables. Quant aux capacités de l’économie américaine à rebondir après les crises, toute l’histoire des États-Unis fourmille d’exemples révélateurs. Bref, en dépit d’inévitables difficultés conjoncturelles, les États-Unis revendiquent plus que jamais le statut inédit d’hyperpuissance, via la concrétisation progressive d’une véritable géopolitique orbitale. Est-ce à dire qu’ils ont toujours vocation à être les gendarmes du monde et qu’ils réussiront à stopper l’avancée fulgurante de l’outsider chinois ? Seul l’avenir le dira. 2) L’unipolarisme « euphorique » de Fukuyama, et des néoconservateurs. Cette option a été, elle aussi, balayée par les faits. Pour Francis Fukuyama 2 , le monde postguerre froide devenu unipolaire, dominé par une Amérique exemplaire et caractérisé par le triomphe du libéralisme capitaliste et de la démocratie, serait la « fin de l’histoire politique mondiale », le modèle indépassable pour les Nations. Rappelant que les États-Unis demeurent les plus puissants dans tous les domaines, tangibles (ressources de base, secteur militaire, énergie, sciences et technologie) comme intangibles (du patriotisme à la « culture universelle »), Fukuyama estime que « l’Occident a gagné la guerre froide et, à l’échelle du monde, les conflits entre les nations sont terminés (sic) ; l’idéologie communiste a échoué et le libéralisme deviendra l’idéologie universelle 3 ». Bénie de Dieu, la nation américaine a le devoir d’implanter ses vertus démocratiques partout dans le monde. Comme le rappelait Warren Christopher, ancien Secrétaire d’État de Bill Clinton, « la fin de la guerre froide nous a donné une possibilité sans précédent de façonner un monde plus sûr, dans lequel les intérêts et les idéaux américains peuvent s’épanouir 4 ». Mais l’option de Fukuyama, singulièrement optimiste, s’est heurtée à la réalité. Les faits sont têtus, disait Lénine. C’est aussi vrai en géopolitique. Elle a été contredite en effet par une série d’événements convergents, durant la dernière décennie. D’abord, Washington a manifestement sous-estimé l’évolution de la sécurité collective. Le maintien de la posture américaine triomphaliste post-guerre froide a entraîné de graves dysfonctionnements dans plusieurs points chauds du globe, comme la Corne de l’Afrique ou, a fortiori, le Moyen-Orient et l’Asie méridionale. Les États-Unis ont aussi pris conscience tardivement que la revendication de leur leadership devait s’accompagner d’une diplomatie cohérente, étayée par la concrétisation de promesses ou de gestes significatifs : Barack Obama ne promettait-il pas dès le début de son premier mandat la fermeture définitive de la prison de Guantanamo ? Dans un autre registre, Daesh n’aurait pas pu terrifier le monde arabe, s’emparer d’une partie de l’Irak et de la Syrie en 2014 si, en 2009, Barack Obama n’avait pas décidé de retirer d’un coup les troupes américaines sans « service après-vente ». On est ainsi passé de l’excès de l’intervention militaire américaine en Irak stupidement menée par les « néocons » de l’administration Bush Jr, en 2003, qui ont instauré un chaos en détruisant totalement l’État baathiste irakien, à un désengagement brutal qui a créé un vide et poussé les tribus sunnites massacrées par les chiites revanchards dans les bras des djihadistes à peine relâchés des prisons américaines d’Irak et des geôles syriennes à la faveur des révolutions arabes... Dans un tout autre domaine, prétendre au premier rang en matière de culture et d’éducation... tout en quittant, en réintégrant, puis en quittant de nouveau l’Unesco, était pour le moins contre-intuitif. Enfin, et surtout, les États-Unis n’ont pu, jusqu’à une date récente, contribuer efficacement à l’éradication du terrorisme islamiste international. Au contraire, ils ont même longtemps directement contribué à son expansion, via leur stratégie pro-islamiste en Afghanistan sous la guerre froide contre l’armée soviétique puis dans les Balkans en 1992-1999, et indirectement, par leurs folles aventures militaires en Irak, en Afghanistan ou en Libye. La mort de centaines de milliers d’innocents (« dommages collatéraux » des bombardements aériens massifs) a été de ce point de vue véritable semence de djihadistes selon la formule du célèbre général américain David Petraeus : « deux terroristes tués avec des dommages collatéraux humains en font naître quatre »... On peut également mentionner que Washington a négligé le nouveau rôle croissant et de plus en plus incontrôlable des organisations supraétatiques, des puissances multinationales et digitales, comme des nouveaux acteurs régionaux du monde multipolaire qui poursuivent leurs propres intérêts. Plus étonnant encore, l’échec de l’Accord de libre-échange nord-américain (Alena 5 ), pourtant contrôlé par les États-Unis... Quant à la gestion du contrôle des armements (voir chapitre VIII), le moins que l’on puisse écrire, c’est que depuis le 12 octobre 1999 et le refus du Congrès de ratifier le CTBT (traité d’interdiction complète des essais nucléaires), puis de poursuivre Start III, le « gendarme du monde » a peu contribué à son évolution et a plutôt œuvré objectivement à une néoguerre froide dangereuse avec la Russie jetée de ce fait dans les bras du rival chinois... Enfin, il convient de rendre justice au fait que Fukuyama est revenu en partie, par la suite, sur son idéalisme triomphal propre à l’école néoconservatrice, notamment dans son ouvrage Trust: Social Virtues and Creation of Prosperity 6 , reconnaissant alors que la culture, donc l’identité et l’élément géocivilisationnel, ne peut pas être clairement séparée de la géoéconomie, et que cela implique de relativiser le caractère universel des valeurs portées par l’Occident. 3) « L’Empire américain face à ses ennemis », de Zbigniew Brzezinski et Graham Allison. En 1997, dans Le Grand Échiquier, le célèbre politologue et stratège américain Zbigniew Brzezinski expliquait que l’Eurasie, vaste ensemble allant de l’Europe de l’Ouest à la Chine via l’Asie centrale, constituait la scène centrale de la politique mondiale et qu’elle était l’enjeu principal pour l’Amérique. Selon lui, la Russie, puissance majeure du heartland (voir carte n o 1), devait être endiguée sur son périmètre et ses flancs afin qu’elle ne redevienne jamais une grande puissance eurasienne. Quant à l’hyperpuissance américaine, devenue le cœur de l’empire occidental après la victoire contre l’URSS, elle devait impérativement prévenir l’émergence d’une puissance eurasienne antagoniste (la Russie, puis plus tard la Chine), donc conjurer toute alliance « antihégémonique » russo-européenne. Brzezinski suggère ainsi d’« utiliser tout moyen pour prévenir l’émergence d’une coalition hostile [en Eurasie] qui pourrait défier la primauté de l’Amérique » ou la « possibilité d’un pays de se substituer aux États-Unis en tant qu’arbitre en Eurasie ». Il affirme qu’il faut soutenir les forces et États jadis occupés par l’Union soviétique ou ses alliés en visant particulièrement la Pologne, les pays baltes, la Roumanie, et surtout l’Ukraine. Dans sa vision, cette dernière est un verrou destiné à « prévenir l’expansion russe dans son étranger proche 7 », dernier rempart face à l’avancée de la Russie vers le sud, d’où sa volonté de financer les forces antirusses de l’ouest de l’Ukraine afin de faire perdre à Moscou le contrôle de ce pays charnière entre la Russie, l’Europe et la Méditerranée (via la Crimée et la mer Noire et les détroits turcs) (voir chapitres III et IV et carte n o 14). L’encouragement occidental à la révolution orange de 2004 et à l’Euromaïdan de 2013-2014 était annoncé noir sur blanc dans Le Grand Échiquier, avec comme conséquences prévisibles la réaction convulsive de Moscou et le chaos régional (guerre civile en Ukraine, voir carte n o 14). Sa préconisation du « double élargissement » (avancée le plus possible vers l’est de l’Otan et de l’UE) a en fait débouché sur une nouvelle guerre froide entre l’Occident atlantiste et la Russie postsoviétique. En fait, la « doctrine Brzezinski » poursuivait celle de John Foster Dulles, concepteur de la doctrine du roll back (refoulement) contre la Russie/URSS sous la guerre froide, lequel continua lui-même la vision du stratège anglais Halford John Mackinder, qui appelait à endiguer le heartland russe et à encercler l’Eurasie avant même l’existence de la menace soviéto-communiste 8 (1904, voir carte n o 1). Ceci dit, Brzezinski a été moins primairement impérialiste qu’on le croit : dans les années 2000, à la fin de sa vie, il a critiqué l’interventionnisme des néoconservateurs et leurs guerres mal menées en Irak et Afghanistan qui ont contribué à faire perdre aux États-Unis leur pouvoir de séduction. Plus surprenant, celui qui apparut longtemps comme un russophobe acharné a fini par regretter lucidement à la fin de sa vie, comme Georges Kennan peu avant lui, le fait que l’échec de l’intégration de la Russie dans l’orbite occidentale a jeté la Russie de Vladimir Poutine dans les bras du vrai nouvel ennemi de l’Empire américain : la Chine... Passons au second théoricien de l’Empire américano-occidental face à ses ennemis : Graham Allison, professeur à Harvard, comme Huntington et Fukuyama, a théorisé l’affrontement apparemment inéluctable entre l’Amérique et l’ennemi chinois depuis la chute de l’URSS. Dans son ouvrage Destined for War 9 , l’auteur s’appuie sur la théorie du piège de Thucydide 10 selon laquelle une puissance dominante, comme les États-Unis, mais en déclin, tendrait à faire la guerre pour empêcher qu’une puissance rivale, comme la Chine, encore inférieure mais en pleine expansion, ne finisse par la remplacer. Le piège résiderait dans le fait que c’est la puissance dominante qui déclenche la guerre qui est vaincue par l’outsider... Pour Allison, la poursuite et l’intensification constatées des rivalités entre les deux superpuissances sur presque tous les fronts (stratégique, politique, technologique, idéologique, énergétique et économique) rendent le choc militaire inévitable... Sauf si l’Oncle Sam et l’oncle Xi s’entendent dans une sorte de duopole/condominium. L’auteur rappelle que, de l’Antiquité à nos jours, le « piège de Thucydide » s’est vérifié à seize reprises et a débouché douze fois sur une guerre que l’empire sortant a perdue face à l’outsider... Finalement, quelle que soit l’issue de la guerre qui vient entre les deux empires, Graham Allison dépeint un monde divisé, comme sous la guerre froide, mais cette fois-ci dans le cadre d’une lutte entre deux capitalismes concurrents, le capitalisme d’État maoïsto- confucéen, d’une part, et le capitalisme occidentalo-libéral, de l’autre. Certes, on peut espérer que la dissuasion, pas seulement nucléaire, mais économique et financière (interdépendance), donc la raison et les intérêts mutuels, empêchera ce scénario pessimiste du conflit militaire direct et le limitera à un conflit/bras de fer économique, comme c’est le cas actuellement. Le pire n’est jamais certain, et lorsqu’il advient, ce n’est pas toujours là où on l’avait envisagé... 4) Le paradigme civilisationnel de Samuel Huntington. En 1993, ce professeur de Harvard publie un article, puis, à partir de ce dernier, un ouvrage, le Clash of Civilizations and the Remaking of World Order (traduit en français en 1997) qui va devenir très vite une référence incontournable... et la cible d’une multitude de critiques. Après avoir à son tour rappelé la disparition du monde bipolaire issu des accords de Yalta, Huntington développe une idée majeure : la transition des relations entre États-nations à celles impliquant des « aires culturelles ». Il constate que les affrontements idéologiques de la guerre froide (communisme soviétique versus monde capitaliste) ont laissé la place au paradigme civilisationnel : « les différences entre les civilisations ne sont pas seulement réelles ; elles sont fondamentales, écrit-il. Les peuples des différentes civilisations ont des conceptions différentes des relations entre Dieu et les hommes, les individus et le groupe, le citoyen et l’État [...]. Ces antagonismes, séculaires, ne disparaîtront pas de sitôt. Ils sont bien plus fondamentaux que les différences relatives à l’idéologie politique ou aux régimes politiques. [...]. À travers les siècles, les différences entre les civilisations ont engendré les conflits les plus longs et les plus violents 11 ». Huntington conçoit le paradigme du choc des civilisations comme une nouvelle rivalité globale entre, d’une part, les démocraties occidentales et le reste du monde, en particulier le monde sino-confucéen et le monde musulman, les deux aires culturelles qui contestent le plus l’universalisme occidental, et, de l’autre, entre les aires culturelles qui s’affrontent le long des « lignes de fractures civilisationnelles » : Chine confucéenne vs Inde ; Inde majoritairement hindoue vs Pakistan musulman ; catholiques occidentaux vs slavo-russes-orthodoxes « postbyzantins » ; musulmans bosniaques vs Croates catholiques et Serbes orthodoxes dans les Balkans (voir carte n o 5). Contrairement à ce qu’ont dit ses détracteurs qui ne l’ont pas lu, il ne nie pas, bien au contraire, la complexité et donc les fractures à l’intérieur de mêmes zones culturelles : Alaouites laïques et autres minorités vs sunnites islamistes en Syrie, chiites vs chrétiens et sunnites au Liban, chiites vs sunnites au Yémen ou en Irak, « tiraillements » internes en Turquie. Prémonitoire, mais souvent caricaturé, Huntington annonce l’affrontement entre kémalistes et islamistes en Turquie, l’éclatement de l’Ukraine entre prorusses et antirusses, il prédit la montée des identités séparatistes en Catalogne, Écosse, Kurdistan, etc., ainsi que la montée des populismes anti-immigration en Europe en réaction à l’immigration de masse. Loin d’être un impérialiste unipolariste, il constate la remise en question de la suprématie occidentale, qu’il qualifie d’arrogante, en préconisant, pour faire baisser cette inimitié, l’acceptation d’un monde multipolaire dans lequel l’hyperpuissance américaine s’accommoderait de l’apparition des pôles de valeurs, d’identité et de puissances autonomes qui ne partagent pas l’universalisme occidental (voir chapitre V). On est très loin de l’occidentalo-centrisme qu’on lui a prêté. Certes, Samuel Huntington n’étant pas un stratège, sa théorie générale est critiquable : il semble considérer les concepts de superpuissance et d’hyperpuissance comme des synonymes, au risque de tomber dans une simplification. Rappelons quand même que, pour qu’un leadership planétaire perdure, il doit s’appuyer sur la maîtrise des quatre éléments de la puissance : la terre, la domination territoriale d’un espace, gage de la puissance moyenne ; l’eau (la domination des mers), passeport pour revendiquer le statut de grande puissance ; le feu (le feu nucléaire en l’occurrence) gage de la superpuissance ; l’air (l’espace) qui, au moins partiellement maîtrisé, permet d’acquérir le statut d’hyperpuissance. Concernant les « aires de civilisation », son postulat selon lequel le XXI e siècle sera « spirituel ou ne sera pas », comme l’avait évoqué naguère André Malraux, et se caractérisera par une compétition globale entre civilisations, avec à leur tête leurs leaders respectifs, est à nuancer, car les États souverains ont leur logique propre, parfois contra- civilisationnelle. Sa distinction de sept aires culturelles est également discutable 12 . Huntington est toutefois assez lucide lorsqu’il redoute l’expansionnisme antioccidental de deux aires culturelles montantes, la Chine et le monde musulman : « Ces deux civilisations pourraient en outre former un axe islamo-confucianiste susceptible de constituer une véritable menace pour le monde occidental. » Cette énumération a suscité de vives critiques, en partie justifiées 13 , mais que l’alliance renforcée de la Chine et du Pakistan, à la fois contre l’ennemi commun indien- hindouiste et contre l’Occident, a tout de même confirmée. Ses classifications sont parfois discutables : une civilisation japonaise dérivée de la chinoise ? Un monde latino-américain judéo-chrétien mais distinct de l’aire occidentale ? Mais sa description d’une Afrique tiraillée entre une civilisation propre, « l’Afrique noire » non musulmane, et l’ère islamique, ou son affirmation que l’Amérique latine, l’Afrique noire et le monde musulman sont privés de leaders ou « États phares », à la différence des civilisations occidentales (États-Unis), orthodoxes-slavo- byzantine (Russie), japonaise (Japon), sino-confucéenne (Chine) ou hindouiste-indienne (Inde), ne sont pas inintéressantes. Contrairement à ce qu’ont dit ses détracteurs, Huntington n’a pas nié les fractures internes entre les civilisations, ni présenté l’islam comme une civilisation homogène, puisqu’il souligne son extrême division due aux rivalités internes pour son leadership. Et son affirmation que le monde musulman et l’islam mondial officiel connaîtraient depuis les années 1980 un mouvement de radicalisation intégriste tourné contre l’Occident et les autres civilisations rivales (Inde-hindouiste, Afrique noire animiste-chrétienne, Asie du Sud-Est bouddhiste) est loin, hélas, d’avoir été démentie par les faits. Djihad versus McWorld ? 5) La critique de la mondialisation anglosaxonne McWorld de Benjamin Barber. Une autre clé de lecture, fort originale, est celle du politologue-sociologue Benjamin Barber, qui complète les autres et mérite un développement à part. Dans son ouvrage, Djihad versus McWorld, publié en 1996, l’auteur dépeint de façon prémonitoire la lutte très actuelle entre, d’une part, l’Empire anglophone de troisième type, qu’il appelle McWorld, excroissance hybride des États-Unis échappant à son créateur dans le cadre d’une mondialisation consumériste et informationnelle, et, de l’autre, « djihad ». Terme qu’il a regretté par la suite car il voulait décrire par là l’ensemble des forces identitaires radicales et « paroissiales » (pas seulement l’islamisme) qui défendent les valeurs traditionnelles, le nationalisme, la religion, et autres appartenances tribales, face à l’empire déstructurant et acculturant de McWorld associé à l’Occident libertaire. Pour Barber, la mondialisation non réglementée et ses multinationales américaines couplées à la technologie de l’information formeraient une sorte d’empire antinational planétaire alimenté par une déconstruction permanente des valeurs, des identités et des souverainetés. McWorld conduirait à l’anomie et à l’anarchie générale qui ne peuvent qu’appeler des réactions identitaires violentes. Celles-ci pourraient même survenir à l’intérieur de l’Occident, de ce fait divisé entre « mondialistes » et « souverainistes », en l’absence de réponse à la demande d’identité et de souveraineté nationale des peuples. « La vérité paradoxale est que les tendances tant de Djihad que de McWorld se développent en même temps et que l’on peut les voir toutes deux à l’œuvre au même endroit et au même moment [...]. Chacun des deux produit son contraire et a besoin de lui 14 . » Visionnaire, Barber annonçait ainsi la polarisation actuelle américaine entre le camp pro-Trump, anti- interventionniste, nationaliste, isolationniste, conservateur et antimondialiste, et le camp démocrate Biden-Obama, multilatéraliste, universaliste, mondialiste, assimilé à McWorld, aux délocalisations massives et aux Gafam. Du point de vue géopolitique, cet antagonisme majeur, qui fracture les sociétés occidentales, se retrouve aussi dans l’opposition entre, d’une part, les puissances émergentes non occidentales, identitaires et partisanes d’un ordre international multipolaire hostiles au multilatéralisme, aux interventions et à l’hégémonie américano-occidentales et donc au démocratisme droits-de-l’hommiste qui les justifient hypocritement, et, de l’autre, l’Occident mondialisé des démocrates/néocons américains, l’Otan, des sociaux-démocrates ouest-européens, qui voudraient étendre à l’humanité tout entière leurs valeurs woke consuméristes. Barber fut également précurseur, car à l’époque de la rédaction de son ouvrage, Internet n’en était qu’à ses débuts et les réseaux sociaux n’existaient pas, mais il pressentait la puissance de plus en plus défiante, pour les identités stato-nationales et les traditions enracinées, que sont les puissances digitales et autres multinationales déterritorialisées. La thèse de Barber met en lumière les revers de la mondialisation « pas toujours heureuse ». Il s’est probablement trompé, dans sa conclusion, en postulant que l’empire marchand anglo-saxon pourrait l’emporter. Aujourd’hui, le McWorld occidental est largement concurrencé par son rival le Big Brother chinois articulé autour de gigantesques multinationales et des « BATX » (Baidu, Alibaba, Tencent, Xiaomi, voir chapitre XII). Ces nouveaux conquérants véhiculent des valeurs opposées à celles, libérales-libertaires, du McWorld anglo-saxon, et surtout sont contrôlés par l’État. En octobre 2020, on a vu le patron d’Alibaba, Jack Ma, disparaître avant de se faire recadrer par la Cour pénale chinoise 15 ... Toutefois, la proposition barberienne de conjurer le scénario chaotique d’un « Mad Max universel » par la réhabilitation de l’État souverain confirme la nécessité que ce dernier demeure l’acteur majeur de la politique mondiale et le fait qu’il soit le cadre le plus approprié pour assurer les droits des citoyens – donc la démocratie elle-même – comme seule alternative viable face aux forces impériales et néobarbares de djihad, de Mad Max et de McWorld qui annoncent la guerre de tous contre tous. Kennedy, Fukuyama, Brzezinski, Huntington, Allison, Barber... Des visions prophétiques du monde postbipolaire, parfois – mais pas toujours – contrariées par les faits, que l’on peut appliquer selon ses préférences analytiques à une planète qui, depuis un quart de siècle, tend davantage à flirter avec le concept de désordre qu’avec celui de nouvel ordre. Un univers caractérisé par la multiplication des défis, des contentieux, des menaces et des crises. 1. Paul Kennedy, The Rise and Fall of the Great Powers, 1987. 2. Ex-néoconservateur issu de l’administration Reagan source d’inspiration pour les interventionnistes démocrates. 3. Francis Fukuyama, La Fin de l’histoire et le dernier homme, op. cit. 4. Christian Harbulot et Jean Pichot-Duclos, La France doit dire non, Paris, Plon, 1999. 5. L’Accord de libre-échange nord-américain (Alena), en anglais NAFTA (North American Free Trade Agreement), en vigueur le 1 er janvier 1994, crée une zone de libre-échange entre EU, Canada et Mexique et couvrant 480 millions d’habitants, a été complété en 2019 par l’accord Canada- États-Unis-Mexique. 6. Francis Fukuyama, La Confiance et la puissance. Vertus sociales et prospérité économique, Paris, Plon, 1997. 7. Zbigniew Brzezinski, Le Grand Échiquier, op. cit. 8. Halford John Mackinder, « Le pivot géographique de l’Histoire », The Geographical Journal, vol. 23, n o 4, avril 1904, p. 421-437. Voir aussi le précurseur de l’endiguement, Nicholas Spykman, qui préconisait de ceinturer la Russie/Heartland par une chaîne d’alliances ouest/centre européenne, turcophone, arabo-islamique et asiatique (Rimland) destinée à isoler l’Empire russe et l’empêcher d’accéder aux Mers chaudes et au Sud, objectif de l’Otan, pendant et après la guerre froide. 9. Graham Allison, Vers la guerre. L’Amérique et la Chine dans le piège de Thucydide ?, Paris, Odile Jacob, 416 p. 10. En référence à l’opposition (–431-404) entre Athènes – puissante ascendante – et Sparte – puissance ancienne – relatée par Thucydide dans La Guerre du Péloponnèse. 11. Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997, 402 p., p. 73. Voir carte n o 5. 12. Ces sept aires sont : – la civilisation occidentale, fondée sur l’héritage judéo chrétien ; – latino-américaine, dérivée de celle-ci (sic) ; – confucianiste chinoise ; – la shintoïste-japonaise, dérivée de cette dernière (sic) ; – hindouiste ; – musulmane ; – et une civilisation africaine tiraillée entre islam et non islam. 13. Alexandre Del Valle, adepte de la « géopolitique géocivilisationnelle », est ici plus hungtintonien que Jacques Soppelsa. 14. Benjamin R. Barber, Djihad versus McWorld, Paris, Desclée de Brouwer, 1996, p. 24-25 15. Voir chapitre VIII. Le patron d’Alibaba, Jack Ma, 25 e fortune mondiale, a disparu en octobre 2020 après un discours sévère à l’égard de Pékin, qui a suspendu l’entrée en Bourse de la fintech Ant Group, la banque en ligne d’Alibaba. Alibaba a été accusée de « pratique anticoncurrentielle » par la Cour populaire suprême chinoise. CHAPITRE III De la multiplication des conflits « Soyons pessimistes par réalisme et optimistes par nécessité. » Benjamin Disraeli La période 1945-1990, au-delà de quelques nuances conjoncturelles, était considérée comme une ère de certitudes avec des menaces et des ennemis potentiels clairement identifiés. Hormis l’affaire de Suez – qui s’illustra par l’alliance de facto entre les États-Unis et l’URSS d’une part, la France et le Royaume-Uni, d’autre part –, la plupart des crises et des contentieux virent s’affronter indirectement les deux superpuissances dans le cadre d’un monde bipolaire. La chute du mur de Berlin, l’effondrement des démocraties populaires, la disparition de l’Union soviétique, ont fait en revanche entrer la planète dans une ère d’incertitudes 1 , caractérisée par une gamme de plus en plus nourrie de menaces, de crises, de défis multiformes. Depuis lors, le monde, encore plus durablement déstabilisé par la pandémie, navigue dans une grande tempête, sans gouvernance capable d’envisager un ordre mondial plus multilatéraliste. Dans ce contexte, et contrairement à une idée reçue très ancrée dans les consciences occidentales selon laquelle les guerres ne seraient plus possibles sur le sol des démocraties libérales, les conflits armés directs, dits « de haute intensité », redeviennent tout à fait possibles. C’est ainsi que le général Thierry Burkhard, aujourd’hui chef d’État- major de l’armée de terre française (Cemat), confirmait officiellement, le 31 juillet 2019, le double constat de l’incertitude croissante et d’un possible retour de la guerre en Occident et plus seulement entre pays non démocratiques dits « du Sud » : « dans un monde de l’incertitude et de l’instabilité, en transformation rapide [...], il faut être prêt à s’engager pour un conflit de survie [...]. Le rapport de force redevient le mode de règlement des différends entre nations. Le combat de haute intensité devient une option très probable ». Cette idée émise par un responsable militaire dont la mission est d’anticiper les menaces mais qui est tout sauf un va-t-en-guerre dément de plein fouet le postulat philosophique majeur de l’Union européenne, qui a confié sa défense aux États-Unis, via l’Otan et a renoncé de ce fait à se doter d’une armée et d’une stratégie propres. Elle dément la croyance qui consiste à penser que l’on peut conjurer guerres et chocs de civilisation en prônant la paix, la tolérance, en renonçant à son identité, à tout nationalisme, et en affichant un universalisme droits-de-l’hommiste béat. La radicalisation de la Turquie d’Erdoğan contre les Européens depuis que ce pays a été déclaré candidat à l’intégration dans l’UE – sans d’ailleurs en remplir les critères – est l’une des manifestations les plus flagrantes de ce phénomène faussement paradoxal. On peut bien sûr également évoquer la guerre économique permanente que nous livrent tant nos « amis » protecteurs nord-américains que la Chine, les desseins de conquête prosélyte de puissances islamiques qui voient dans le vieux continent européen postchrétien un ventre mou à conquérir par la démographie et en y remplissant le vide religieux, ou encore les multiples tensions entre puissances nationalistes et autres conflits identitaires partout dans le monde. Éric Denécé, directeur du Centre français de recherche sur le renseignement (CF2R), évoque ainsi des « risques d’affrontement avec des États non nucléaires disposant de moyens militaires modernes. C’est en particulier le cas de la Turquie, à laquelle nous pourrions être confrontés en Libye, en Grèce ou en Méditerranée [...] beaucoup de pays du monde ont modernisé leur arsenal militaire alors que les Européens ont tous cherché à profiter des “dividendes de la paix” et ont baissé la garde. [...] Des armements modernes (drones, missiles, aéronefs, moyens de guerre électronique, etc.) sont présents partout, pas seulement chez les grandes puissances militaires 2 ! » Aux risques plus que jamais d’actualité, mais désormais « classiques », que sont la prolifération nucléaire, la dissémination des armements (voir chapitre VIII), l’immigration de masse incontrôlée, l’islamisation radicale, le terrorisme et les mafias transnationales ou narcopuissances, il convient aussi d’ajouter ceux de la nouvelle donne énergétique, des aléas du contexte écologique, les enjeux de la crise sanitaire et la digitalisation de l’humanité et des cybermenaces auxquelles les États et les services de sécurité se sont souvent adaptés avec un coup de retard. Autre manifestation de la mondialisation dangereuse, c’est bien grâce à la globalisation des échanges et des technologies que les pires ennemis des démocraties, à commencer par la Chine maoïste-capitaliste, mais aussi d’autres puissances multipolaristes (Turquie, Iran, Pakistan, Corée du Nord) ont réussi à acquérir des technologies et arsenaux militaires créés par les Occidentaux mais dont ces derniers, avides de délocalisation et de libre- échangisme, n’ont plus le monopole. C’est dans ce contexte de mondialisation que les puissances occidentales et leurs entreprises stratégiques ont transmis aux outsiders multipolaires des armes et des technologies qui se retournent aujourd’hui contre elles. Dupés par leurs propres modèles libre-échangistes sans limites, les Occidentaux, surtout les Européens, sont déjà massivement dépendants de pays jadis perçus comme des zones durablement faibles où il serait toujours profitable de délocaliser, source majeure de la désindustrialisation de l’Europe – excepté l’Allemagne – et des États-Unis. Multiplication des conflits infra-étatiques internationalisés Avant la montée en puissance du néosultan turc Recep Tayyip Erdoğan et l’intensification du terrorisme islamiste depuis les années 1995-2001, les pays occidentaux pensaient que la Turquie, pays membre de l’Otan, ainsi que les puissances islamiques sunnites du Golfe, et le Pakistan, alliées sous la guerre froide, face à l’URSS, étaient des « amis durables ». Il n’en est rien. Ces pays ont connu paradoxalement un processus de réislamisation radicale et de montée de l’antioccidentalisme au moment même où, au sortir de la guerre froide, et bien qu’étant nos alliés stratégiques de longue date ou nos fournisseurs d’énergie, ils entraient de plein fouet dans la modernité technologique et la mondialisation. En réalité, les élites occidentales et leurs multinationales n’avaient pas prévu les dommages collatéraux civilisationnels de la mondialisation façon McWorld, laquelle, de par son action d’acculturation et d’occidentalisation, a suscité de violentes réactions identitaires de la part des nations désireuses de ne pas subir une « seconde colonisation », à commencer par les partisans des valeurs islamiques. Ces derniers ont perçu dans la lecture individualiste, libertaire et mondialiste de la globalisation à l’occidentale, une menace existentielle majeure. Outre le monde musulman, la quasi-totalité des États-nations souverainistes non occidentaux (Russie, Chine, Turquie, Iran, pays d’Asie du Sud, Inde) ont riposté aux effets déracinant et déconstructivistes de la globalisation anglosaxonne en la désoccidentalisant, en la désidéologisant et en l’utilisant au contraire comme un levier d’expansion et de projection de puissance. Décidés à ne pas céder sans identité et souveraineté, ces acteurs ont canalisé la modernité en fonction de leurs intérêts géocivilisationnels. Bref, l’interconnexion entre aires géocivilisationnelles et l’internationalisation des échanges ont paradoxalement internationalisé et donc étendu les sources de conflit et de casus belli... D’une manière générale, on note que depuis la fin de la guerre froide, les guerres infra-étatiques internationalisées sont les plus fréquentes et les plus meurtrières, car elles permettent aux grandes puissances de s’affronter par procuration (dissuasion nucléaire et interdépendance économique entre le tandem Chine-Russie, d’une part, et l’Occident, de l’autre), à travers la participation à des conflits identitaires et des guerres civiles 3 . Par ailleurs, depuis les années 1990-2000, la politique occidentale de soutien militaire à des forces d’opposition (révolutions de velours et printemps arabes) ou séparatistes (Kosovo) pour déstabiliser des régimes considérés antidémocratiques, au nom de valeurs occidentales universelles hégémoniques ou de mobiles issus de la guerre froide, a contribué à augmenter considérablement le nombre de conflits meurtriers dans le monde, notamment dans les Balkans, au Moyen-Orient et en Afrique. Le plus souvent, les politiques de « pandémocratisme » et de regime change voulues par l’Occident (surtout anglo-américain), loin d’avoir remplacé des régimes autoritaires par des démocraties libérales, ont plutôt abouti à créer des zones de non-droit, des États criminels (Kosovo) ou faillis (Irak, Libye) et des zones de guerre civile endémique comme l’Afghanistan, le Yémen, la Syrie. Poussée par une mondialisation acharnée, ladite multiplication des conflits ouverts a pris une telle ampleur au cours de la seconde moitié du XX e siècle qu’elle a abouti, via la polémologie 4 , à de multiples tentatives de typologies. L’une de ces tentatives intéressantes est, au-delà de quelques simplifications, celle proposée par le fondateur de la polémologie française, Gaston Bouthoul, et de son disciple René Carrère, auteurs du Défi de la guerre 5 . Les deux auteurs, à travers cet ouvrage, analysaient trois grands types de conflits : les guerres interétatiques, les guerres coloniales et les guerres intraétatiques postcoloniales. D’évidence, les conflits coloniaux décrits par Bouthoul sont quasi inexistants aujourd’hui, puisqu’ils ont été fort logiquement concentrés sur la période 1955-1975, l’époque d’accession à l’indépendance de pays d’Afrique, d’Asie méridionale ou de la péninsule indochinoise. Ce type de conflits ouverts s’est progressivement effacé au profit des guerres intraétatiques, que Bouthoul a qualifiées de « conflits de troisième type ». Le plus significatif réside donc dans le déclin quantitatif des conflits classiques par rapport aux autres, notamment identitaires et ethnoreligieux. Ce déclin résulte directement des caractères fondamentaux du système bipolaire engendré par l’après-Yalta et a été fortement conforté par les effets du nucléaire (voir « Le pouvoir égalisateur de l’atome », dixit Pierre Marie Gallois). À cette époque, les deux superpuissances ont très vite estimé que tout conflit direct, y compris à l’échelle de leur zone d’influence respective, serait désormais inconcevable, sous peine de rompre le fragile équilibre des forces, au- delà de la sévère crise de Cuba, en 1962, qui faillit plonger le monde dans l’Apocalypse. Dans ce contexte, les guerres interétatiques ont « privilégié », si l’on peut dire, les nations défavorisées du tiers-monde, d’où la croyance en vogue dans l’Europe pacifiste, déplorée plus haut, que l’homme blanc-occidental riche et ses démocraties libérales seraient protégés ad vitaem eternam par les parapluies nucléaires et ne connaîtraient plus jamais de guerre classique sur leur sol. C’était oublier la montée des guerres asymétriques, identitaires, religieuses, civiles, terroristes, contre lesquelles l’arme nucléaire d’un État ne peut rien puisqu’elles se passent sur son propre sol. Échec du multilatéralisme ? En fin de compte, la multiplication des conflits depuis la fin de la guerre froide peut s’expliquer non seulement par le fait que la sanctuarisation nucléaire ne suffit pas et ne concerne que peu de nations, mais aussi par l’échec patent du multilatéralisme, qui n’a réglé pratiquement aucun des conflits, excepté les exemples discutables des Balkans : échecs au Rwanda, à Chypre, en Israël-Palestine, en République démocratique du Congo, en République centrafricaine, en Syrie, en Libye, en Irak, en Corée du Nord, au Yémen, en Somalie, et aussi sur le dossier nucléaire iranien, les exemples sont trop nombreux pour être tous énumérés. La création de l’ONU, suivie de la promotion officielle durant ces dernières décennies, de la paix internationale, n’a en effet pas réduit les violences, bien que les antagonismes entre grandes puissances aient été souvent évités et qu’ils se déroulent souvent dans le cadre de guerres civiles ou conflits asymétriques. La croyance en la fonction durablement pacifique de la sanctuarisation nucléaire a semblé décrire une réalité depuis le début de l’ère nucléaire militaire, puisque seuls quatre conflits ouverts, relativement limités, ont opposé directement des États échappant au dramatique contexte du sous-développement : la guerre des Malouines, entre l’Argentine et le Royaume-Uni, le conflit du Cenepa 6 (la « Cordillera del Condor »), entre Pérou et Équateur, le conflit du Haut-Karabagh, entre Arménie et Azerbaïdjan et le conflit non officiel certes, mais bien direct, qui oppose la Russie à l’Ukraine. Si les conflits des Malouines et du Cenepa sont largement oubliés du grand public et si celui d’Ukraine n’a cessé de s’intensifier depuis 2004 (voir infra), celui du Haut-Karabagh s’est réveillé – tel un volcan – le 27 septembre 2020, après vingt années de statu quo. Il mérite que l’on s’y penche un instant, sachant qu’il se déroule sur une zone stratégique, le Caucase, disputée par deux empires renaissants, la Turquie nationale-islamiste d’Erdoğan, qui a considérablement appuyé son allié et « frère » azéri turcophone, et la Russie slavo-orthodoxe, qui veut toujours contrôler ces deux États de « l’étranger proche », ex-soviétiques. Ce conflit concerne les Européens au premier plan, car le pays qui a poussé à la guerre, la Turquie, membre de l’Otan et candidat à l’intégration dans l’UE, est lui-même au bord de la guerre avec deux pays membres de l’Union, Chypre et la Grèce, ainsi qu’avec des pays arabes qui partagent avec la Grèce, Chypre ou la France, des intérêts géoénergétiques (voir infra). Le conflit du Haut-Karabagh (voir carte n o 10) confirme l’échec du multilatéralisme, manifestation parmi tant d’autres, du fait que la mondialisation, plus dangereuse et complexe que l’on croit, n’a supprimé ni les motifs de conflits, ni les identités nationales et civilisationnelles. Le conflit du Haut-Karabagh La récente confrontation armée entre l’Azerbaïdjan et les Arméniens du Haut Karabagh (27 septembre- 10 novembre 2020) n’est que l’énième épisode d’un antagonisme géopolitique violent qui date des années 1988- 1991 : l’Arménie chrétienne ex-soviétique est non seulement enclavée mais surtout prise en tenailles entre Turcs musulmans sunnites à l’Ouest et Azéris musulmans chiites à l’Est (turcophones également), et n’a de bons rapports qu’avec les Russes et dans une moindre mesure, avec les Perses voisins, eux-mêmes concurrents des Turcs et des Russes et méfiants vis-à-vis de l’irrédentisme azéri dans le nord de l’Iran... Bienvenue dans le Caucase ! Dès la disparition de l’Union soviétique, un conflit ouvert éclata entre l’Arménie et l’Azerbaïdjan à propos du Haut- Karabagh (ou Nagornyi-Karabakh, voir carte n o 10) que les Arméniens nomment « Artsakh ». De fait, il n’est que la dramatique suite des relations singulièrement tendues, depuis des générations, entre ces deux nations qui viennent d’accéder alors à l’indépendance. Ces tensions, qui remontent au début du XVII e siècle, sont renforcées à partir de la guerre russo-persane de 1804-1813 qui voit la Transcaucasie passer sous le giron russe. Elles entraînent de douloureuses conséquences régionales, comme les déplacements forcés d’Arméniens de Turquie et d’Iran vers les horizons du Caucase. Ces relations s’illustrent, au crépuscule de l’Union soviétique, par une guerre sourde et strictement localisée. Cet événement, du côté des Arméniens de la région, appuyés par Erevan, a permis à l’époque de qualifier le conflit de « lutte de libération nationale » et non de guerre interétatique entre l’Arménie et l’Azerbaïdjan. Deux principes de légitimité s’opposent Rappelons que le Nagornyi-Karabagh, historiquement arménien depuis deux millénaires (et peuplé à 80 % d’Arméniens à la veille du conflit), avait été octroyé par Staline en 1921 à l’Azerbaïdjan, voisin dans le cadre de la politique soviétique de divide et impera, mais aussi pour gagner le soutien du pouvoir kémaliste en Turquie alors en guerre contre les alliés franco-britanniques. Entre 1988 et 1990, en vue de l’affaiblissement de l’URSS, comme tant d’autres républiques ex-soviétiques, les Arméniens du Haut-Karabagh ont invoqué le droit à l’autodétermination, comme l’Azerbaïdjan, vis-à-vis de l’URSS. Mais les Azéris, invoquant les accords d’Helsinki et le principe d’intangibilité des frontières existantes, ont rétorqué que le Haut-Karabagh est partie intégrante de son territoire depuis 1921 et que l’Azerbaïdjan, devenu indépendant et reconnu par l’ensemble de la communauté internationale dans ces frontières de 1921, ne pouvait accepter la sécession des Arméniens du Karabagh, et encore moins leur rattachement à l’Arménie. Du coup, la région autonome s’est autoproclamée indépendante le 2 septembre 1988 non pas vis-à-vis de l’Azerbaïdjan, mais du pouvoir central soviétique. En 1988 et 1990, des pogroms antiarméniens ont éclaté dans la ville de Sumgaït, puis à Bakou et Kirovabad, en Azerbaïdjan, faisant des centaines de victimes et provoquant d’importants mouvements de populations entre l’Arménie et l’Azerbaïdjan. En septembre 1991, l’Assemblée nationale du Haut-Karabagh réitéra sa déclaration d’indépendance, ratifiée par le référendum du 10 décembre, avec une écrasante majorité de « oui », mais elle n’a jamais été reconnue par aucun État..., pas même par les Nations unies ou d’autres organisations internationales intergouvernementales qui ne veulent pas compromettre leurs relations avec l’Azerbaïdjan riche en pétrole et bien plus prospère que la petite Arménie enclavée, et sous embargo turco-azéri... Pour rétablir leur contrôle sur le Haut-Karabagh, les autorités azerbaïdjanaises envoyèrent des troupes. Entre 1990 et 1992, une véritable catastrophe humanitaire eut lieu dans cette région à la suite du blocus imposé par l’Azerbaïdjan. Les Arméniens du Haut-Karabagh, appuyés par l’Arménie voisine, repoussèrent les Azéris venus rétablir leur souveraineté. Les affrontements inhérents à cette guerre de libération, qualifiée de « séparatiste » par Bakou, feront de nombreuses victimes. La médiation internationale de plusieurs groupes, comme l’OSCE, ayant échoué à trouver une solution au conflit qui satisfasse les intérêts des deux côtés. Au début de l’année 1993, les forces arméniennes, qui avaient l’avantage militaire, pénétrèrent en territoire azéri et occupèrent une zone qualifiée de « périmètre de sécurité » autour du Haut- Karabagh, soit 8 000 km² de terres azerbaïdjanaises. À l’issue du conflit au terrible bilan (plus de 40 000 morts, 1 million de réfugiés azéris, 400 000 Arméniens fuyant l’Azerbaïdjan occasionnant d’effroyables massacres, comme celui de Khojaly 7 ), 20 % du territoire azéri fut désormais contrôlé par les forces locales arméniennes : le Haut- Karabagh et 7 districts voisins, ceux de Fuzuli, d’Agdam, de Djebrail, de Goubadly, de Latchin, de Kelbadjar et de Zangelan. Comme Israël dans ses différentes guerres avec les pays arabes, entre 1948 et 1973, les Arméniens de la région autonome profitèrent de leur avantage militaire pour non seulement reprendre leur province arménienne en territoire du Karabagh officiellement azéri, mais également pour s’emparer des territoires du Haut-Karabagh (bordures sud) peuplés d’Azéris, dans une logique d’acquisition d’une zone tampon entre eux et leur voisin ennemi. Ce sera là, près de trente ans plus tard, la source du revanchisme des dirigeants azéris et de leurs alliés turcs, décidés à laver cet affront : durant toutes les années 1990 et 2000, puis de façon plus nette encore depuis 2010-2018 avec un appui politique et militaire turc croissant, Bakou s’est préparé à la revanche, en achetant des armes à tous les pays capables de lui en fournir : Turquie, Israël, Italie, Grande-Bretagne, Allemagne, France... et même la Russie, pourtant officiellement protectrice des Arméniens. En réalité soucieuse de vendre ses armes à tous et de maintenir un équilibre dans un Caucase et une zone Caspienne turcophone extrêmement stratégique et riche en hydrocarbures, Moscou entend rester présente en ménageant toutes les parties. Du rôle de la communauté internationale Dès le milieu de l’année 1992, la communauté internationale tente de mettre un terme à la guerre, via la Conférence sur la sécurité et la coopération en Europe (CSCE) 8 . Le 24 mars 1992, la CSCE officialise la création d’un « Groupe de contact pour le Haut-Karabagh », rapidement appelé « Groupe de Minsk 9 », qui recense onze participants, dont la France et les États-Unis, rejoints en 1994 par la Russie de Boris Eltsine. Cette triple présidence France-États-Unis-Russie est en fait le seul forum multilatéral où diplomates russes, américains et français ont travaillé ensemble. Avant l’intégration de la Russie au Groupe, ce dernier suggère dès avril 1992 la mise en place d’une force de maintien de la paix « Otan/CEI » pour vérifier la pérennisation du cessez-le-feu et pour protéger les convois humanitaires. Mais Moscou va s’opposer à cette initiative, refusant le déploiement sur le territoire concerné d’une force comportant des combattants de l’Otan. Et pour cause, nous verrons dans le chapitre suivant que le principal motif de l’antagonisme persistant entre l’Occident et la Russie postsoviétique est justement la pénétration des dispositifs atlantistes et occidentaux dans une zone « réservée » que Moscou nomme son « étranger proche » (Caucase, Ukraine-Crimée, Biélorussie, Géorgie, républiques turcophones – et autres ex-soviétiques d’Asie centrale/CEI). Au cours de l’année 1993 (année cruciale), l’ONU tente de reprendre les choses en main : à la demande du Conseil de sécurité, son secrétaire général, Boutros Ghali, valide un rapport sur la situation du Haut- Karabagh. Il y rappelle « que les combats dans le Haut-Karabagh constituent une menace pour le maintien de la Paix et de la sécurité internationale dans toute la Transcaucasie ». L’ONU adoptera quatre résolutions (fort inefficaces) au cours de cette seule année 1993. Cependant, le conflit reste latent, comme le montrent les nombreux incidents de frontières (2006, 2008, 2010, 2012, 2013, avril-été 2016 10 , été 2020), qui ont fait chaque fois craindre le retour d’une guerre ouverte que chacun savait inévitable depuis 2016. Le Groupe de Minsk propose un règlement par étapes de la question du Haut-Karabagh. Quatre suggestions seront émises, convergeant vers l’obtention d’un compromis qui comprend la restitution de l’ensemble des territoires occupés par les Arméniens et le droit au retour, en échange d’une véritable autonomie accordée à la communauté arménienne résidant sur ceux-ci. En juin 2016, le Groupe de Minsk présente des propositions concrètes 11 , reposant sur : le retrait complet des forces arméniennes des sept districts occupés ; la démilitarisation du Haut-Karabagh et le déploiement d’une force multilatérale de paix et de sécurité ; la réinstallation des personnes déplacées et le financement de la reconstruction des villes et des villages détruits par la guerre ; in fine, le référendum sur le statut du Haut-Karabagh. Depuis cette date, plusieurs documents, appuyés ultérieurement par l’ONU, sont validés par l’Otan, l’OSCE, le Conseil de l’Europe et l’Organisation de la coopération islamique (OCI), pour résoudre le problème conformément au droit international. Certes, on peut nuancer cette impartialité par le fait que deux membres de l’OCI, Turquie et Pakistan sont des alliés indéfectibles de l’Azerbaïdjan... Toujours est-il que le multilatéralisme a échoué à régler le conflit qui éclate à nouveau. Le retour de la guerre dans le Caucase Le 27 septembre 2020, une nouvelle guerre éclate dans le Haut-Karabagh, lancée cette fois-ci par l’Azerbaïdjan avec, ce qui est nouveau, un appui et une coopération stratégiques turcs officiels et déterminés, cela après de multiples incidents survenus depuis 2016. Cette nouvelle guerre, intense mais localisée dans le Haut-Karabagh, va durer bien moins longtemps que les précédentes, deux mois seulement, mais elle sera particulièrement meurtrière : au moins 7 000 à 8 000 morts du côté arménien, et 4 000 à 5 000 côté azéri, d’après les services de renseignements russes et britanniques. Mais cette fois-ci, les forces azéries ont l’avantage pour trois raisons : 1/ Elles sont bien mieux armées et équipées que dans les années 1990, car elles se sont préparées en utilisant l’argent de la manne pétrolière qui a permis d’acheter des armes et les drones de haute technologie aux Turcs, aux Israéliens, aux Italiens et à d’autres pays de l’Otan dont la France 12 . 2/ Vladimir Poutine a laissé faire, au départ, la reprise de territoires anciennement azéris du Karabagh acquis par les Arméniens dans les années 1990, tout en stoppant l’avancée azérie in extremis, ceci dans une logique d’équilibre mais aussi pour « punir » les Arméniens d’avoir mis au pouvoir, en Arménie, en mai 2018, un Premier ministre antirusse, Nikol Pachinian... 3/ La Turquie d’Erdoğan envoie des armes, des drones, appuie diplomatiquement l’offensive azérie, puis envoie des mercenaires djihadistes arabes et turkmènes de Syrie exfiltrés et entraînés par la société de mercenaires Sadat du général Adnan Tanriverdi. Ce proche d’Erdoğan a recruté depuis des mois des milliers de combattants islamistes et djihadistes cantonnés, depuis l’échec de Daesh et de la rébellion sunnite anti-Assad, dans le nord-ouest de la Syrie, en zone sous contrôle turc (zone officialisée en vertu des accords turco-russo-iraniens de désescalade en Syrie signés lors des rencontres d’Astana et de Sotchi entre 2016 et 2018). Les Arméniens perdent la guerre. Ils doivent capituler et restituer nombre de territoires azéris du Haut- Karabagh et même un peu plus, avec le corridor reliant l’Azerbaïdjan à la Turquie via le Nakhitchevan (république autonome de quatre cent mille habitants peuplée d’Azéris mais jadis d’Arméniens qui en ont été expulsés), tout cela dans le cadre de négociations entre la Russie et la Turquie, pour la première fois présente dans l’étranger proche russe (la Russie dispose de son unique base militaire dans la région en Arménie, à Gumri). On remarquera en passant que, dans le cadre de ce monde multipolaire en voie de constitution, ce n’est pas le Groupe de Minsk, cité précédemment, qui a fait avaliser le cessez-le-feu du 10 novembre 2020, mais une entente tripartite fort cynique entre l’Azerbaïdjan, la Turquie et la Russie, excluant soigneusement des termes de l’accord les parrains occidentaux du Groupe de Minsk (France, États-Unis) : Erevan s’engage à rétrocéder à Bakou les districts d’Aghdam et de Kelbadjar ; un corridor est aménagé à Latchin ; le retour des personnes déplacées sera effectué sous le contrôle de l’ONU ; et, plus concrètement encore, dès le lendemain de la signature de l’accord, deux mille soldats russes sont déployés le long de l’ancienne ligne de front (voir carte n o 10). En fait, l’un des objectifs de guerre de long terme des Azéris, au-delà de la récupération des territoires azéris pris par les Arméniens en 1993, visait l’obtention, extrêmement importante sur le plan stratégique et idéologique, du fameux « passage de Meghri », une bande large de dix kilomètres permettant de relier le territoire azéri à l’enclave azérie du Nakhitchevan, située à l’intérieur du territoire de l’Arménie. L’accord de cessez-le-feu prévoit donc la création d’un corridor, en terre arménienne, qui reliera l’enclave azérie du Nakhitchevan à l’Azerbaïdjan. C’est une victoire pour les Azéris, car, géographiquement, cette région n’avait de frontière qu’avec la Turquie, l’Arménie et l’Iran, mais aucune continuité territoriale avec le reste de l’Azerbaïdjan. De facto, avec ce droit de passage, le rêve des panturquistes, qui, depuis le génocide arménien de 1915, ont toujours voulu faire la « jonction » entre turcophones de Turquie et du Caucase, est sur le point d’être réalisé, la continuité territoriale étant désormais possible et extensible (voir carte n o 11). D’évidence, la question du Haut-Karabagh n’a pas fini d’envenimer l’ensemble du Caucase, sur fond de nationalismes irrédentistes et de géoénergie... La Turquie est entrée en scène... La paix sera durable tant que les Russes assureront la protection du Haut-Karabagh, certes toujours existant, mais très peu peuplé, non reconnu par la communauté internationale et réduit à sa partie nord. De plus, on notera que le couloir de Latchin, seul point de jonction entre l’Arménie et le Haut-Karabagh, est une route étroite qui peut être coupée à n’importe quel moment par la partie azérie. En Azerbaïdjan, l’objectif stratégique maximal viserait la reprise de l’ensemble du territoire autonome et donc de la partie encore peuplée par les Arméniens, ainsi que d’une partie de l’Arménie nécessaire pour assurer une jonction viable plus large entre Turquie, Nakhitchevan et Azerbaïdjan. Pour ce faire, il faudrait une nouvelle guerre, que les Azéris gagneraient probablement si les forces d’interposition russes ne restaient pas ou si Vladimir Poutine obtenait des contreparties de la part des parties azérie et turque... Certes, on n’en est pas là, mais il ne faut jamais oublier, contrairement aux fantasmes de certains russophiles extrêmes, que Moscou n’est pas une puissance idéaliste chrétienne nécessairement proarménienne, mais qu’elle cherche à rester présente sur l’ensemble du Caucase riche en hydrocarbures (Azerbaïdjan), traversé par les routes de transit énergétique, et que dans ce contexte, elle n’a jamais considéré le Haut-Karabagh comme autre chose qu’une partie intégrante du territoire de l’Azerbaïdjan souverain... Tout dépendra donc des relations futures entre la Turquie et la Russie, respectivement protectrices de l’Azerbaïdjan et de l’Arménie. Bien qu’étant une nation indépendante distincte de la Turquie, de confession majoritairement chiite, encore en partie russophone, comme les autres pays du Caucase ex-soviétiques, l’Azerbaïdjan, de langue et d’ethnie turques, est perçue par Ankara comme une nation sœur. Mais cette dernière est coupée des frères azéris par l’obstacle géographique et humain naturel qu’est l’Arménie : les nationalistes panturquistes ont toujours rêvé de fusionner la Turquie avec les pays turcophones du Caucase (Azerbaïdjan et autres minorités « tatares ») ou d’Asie centrale (Turkmenistan, Kazakhstan, Kirghizistan, Ouzbékistan voir carte n o 11). Avec l’impératif de vider les arrières d’un des fronts de la Première Guerre mondiale. Ce fut d’ailleurs la motivation première des officiers jeunes-turcs (« triumvirat »), adeptes du panturquisme raciste (équivalent du pangermanisme hitlérien), qui planifièrent le génocide des Arméniens d’Anatolie de 1915. Le Président turc a ainsi fait d’une pierre deux coups en appuyant ostensiblement, politiquement et militairement (coordination entre les armées turque et azérie), cette guerre pour les « frères turcs azéris » : il fait oublier des problèmes économiques et politiques intérieurs ; il consolide l’alliance électorale de son parti l’AKP, avec les nationalistes panturcs du MHP ; et il renforce la présence turque dans la région stratégique et riche en hydrocarbures du Caucase turcophone (mer Caspienne), alors que la Turquie manque d’énergies fossiles et ne veut pas trop dépendre du gaz russe. Erdoğan a eu l’habileté de négocier cette incursion dans « l’étranger proche » russe en laissant en échange Vladimir Poutine contrecarrer les projets turcs irrédentistes en Syrie 13 , puis au nom de pactes de non-nuisance réciproques en Libye au-delà de certaines lignes... Certains disent que la Russie a abandonné les Arméniens et a cédé aux revendications d’Erdoğan. Une lecture moins idéaliste des événements doit nous rappeler que Moscou ne défend officiellement que l’Arménie reconnue internationalement et que la Russie n’a jamais reconnu le Haut-Karabagh arménien. En suscitant un accord de cessez-le-feu qui sauve les Arméniens de la catastrophe totale tout en donnant des satisfactions aux Azéris, la Russie de Poutine accroît en fait son influence dans le Caucase en tant que puissance d’équilibre dans ce nouveau Grand Jeu russo-turc... Les leçons de la guerre du Haut-Karabagh On ne répétera jamais assez la phrase célèbre de Gaston Bouthoul, « préparez Venus viendra Mars »... Les Arméniens connaissent un déclin démographique catastrophique depuis trente ans ; le Haut-Karabagh s’est vidé, comme l’Arménie, d’une partie de sa population, les habitants des villages sont en moyenne très âgés et l’Arménie n’a pas réussi à y fixer les populations faute de dynamisme économique. Il y a depuis longtemps bien plus d’Arméniens en Russie qu’en Arménie, et nombre d’Arméniens quittent continuellement leur terre pauvre et enclavée pour aller en Russie ou vers l’Occident. Et si l’Arménie a connu une forte instabilité politique ces dernières décennies, en face, la riche et plus jeune république d’Azerbaïdjan, certes non démocratique, est remarquablement stable, avec la dynastie des Aliev, père et fils, au pouvoir depuis 1993. La première conclusion est qu’avec la Chine et d’autres puissances autoritaires, l’Azerbaïdjan et son système illibéral semblent démontrer la plus grande efficacité politique des « démocratures », parfois capable de plus de stabilité par rapport aux démocraties rendues instables par les élections. Et dans le cas arménien, certains ont observé cyniquement que le pays a été gravement divisé, et de ce fait affaibli, face à son ennemi héréditaire azéri, à la suite d’une alternance problématique largement appuyée par l’Occident 14 ... Une autre leçon de ce conflit turco-azéro-arménien a été la démonstration de l’efficacité des armes automatisées, robotisées, comme les drones, qui ont fait la différence dans le Haut-Karabagh, dans le cadre d’une révolution dans les affaires militaires qui s’observe aussi sur des théâtres comme Gaza, ou la Libye, où les différents acteurs utilisent de façon privilégiée les drones, parallèlement au recrutement de mercenaires, autre phénomène croissant dans les nouvelles affaires militaires et conflits régionaux. Ce conflit s’inscrit également dans la grille de lecture de Samuel Huntington qui prédit la multiplication de conflits identitaires dans les zones de fracture et de contact civilisationnelles. Le spectre d’une guerre interétatique entre l’Ukraine et la Russie Toujours dans l’espace postsoviétique, une situation conflictuelle oppose cette fois-ci les deux États les plus importants ex-membres de l’URSS, à savoir la fédération de Russie et l’Ukraine qui, à elles deux, représentaient plus des trois quarts du potentiel économique et les deux tiers de la population soviétiques. Les relations entre ces deux pays sont marquées par un antagonisme croissant caractérisé par un décrochage géopolitique des élites ukrainiennes qui a commencé avec la révolution orange de 2004 et a évolué en une rupture totale avec l’Euromaïdan, l’annexion de la Crimée et le conflit armé du Donbass (2014, voir carte n o 14). Le conflit armé à l’est de l’Ukraine (voir carte n o 14), qui a éclaté en 2014 et a fait plus de treize mille morts et près d’un million et demi de déplacés, n’est pas une simple guerre civile ukrainienne mais oppose dangereusement les troupes russes à celles de l’Otan en plus de risquer à tout moment d’évoluer en une guerre interétatique entre la Russie et l’Ukraine, cette dernière compensant sa faiblesse par l’appui occidentalo-américain. Il résulte d’un antagonisme plus large, opposant, d’une part, les puissances externes atlantistes, indirectement impliquées (Otan) et, de l’autre, la Russie, directement engagée. Les Ukrainiens y voient un conflit interétatique l’opposant à la Russie, accusée d’intervenir dans le Donbass en soutenant des rebelles prorusses. En revanche, Moscou affirme qu’il s’agit d’une guerre civile entre les séparatistes russophones de l’est de l’Ukraine et le pouvoir nationaliste de Kiev. Rappelons le contexte général : depuis la fin des années 1990, la Russie a connu une certaine reprise économique soutenue par la hausse des prix des hydrocarbures. Elle essaie donc de transformer cette amélioration conjoncturelle en influence politique avec comme objectif final la reconstitution d’un espace fondé sur un projet d’intégration coïncidant largement avec l’Union soviétique et naturellement dominé et guidé par Moscou. Toute la politique étrangère de Vladimir Poutine s’inscrit dans cette tendance lourde de la géopolitique russe traditionnellement tournée vers la conquête territoriale des zones qui entourent son noyau central européen historique. Dans ce dispositif, l’Ukraine représente évidemment la pièce maîtresse qui permet à la Russie de redevenir une puissance eurasienne car, à partir de ce pays, la Russie peut se projeter à la fois sur la mer Noire, la Méditerranée orientale et l’Europe centrale et balkanique. D’où la stratégie américaine visant à soutenir en Ukraine, comme en Géorgie et ailleurs, les forces politiques hostiles à Moscou. Cette manœuvre fait d’ailleurs d’une pierre deux coups en fragilisant la sécurisation des gazoducs acheminant le gaz russe vers l’Europe de l’Ouest, qui n’est pas du goût des États-Unis qui y voient un risque de dépendance de l’UE envers la Russie. D’où également l’hostilité américaine envers le gazoduc Nord Stream qui contourne l’Ukraine, par le nord, appuyé par l’UE, surtout par l’Allemagne (Voir carte n o 13). Les événements du printemps 2021, qui ont failli déboucher sur une guerre directe entre l’Ukraine et la Russie avec une implication indirecte de l’Otan, illustrent les aléas de ce conflit au départ apparemment intraétatique, susceptible de conduire dans un second temps à une véritable guerre interétatique. Ceci est inédit pour cette région du monde depuis la fin de la Seconde Guerre mondiale si l’on ne tient pas compte des guerres chaotiques survenues dans les années 1990 en ex-Yougoslavie. Stratégies et buts de guerres de part et d’autre Le bras de fer entre la Russie et l’Ukraine le long de la frontière commence fin mars 2021 lorsque la Fédération de Russie masse des dizaines de milliers de soldats dans les régions russes adjacentes et en Crimée (annexée par Moscou en 2014). Plusieurs experts russes informés de la situation, comme le spécialiste des questions de défense et journaliste d’opposition Pavel Felgenhauer, ont dévoilé les supposés plans de guerre russes, révélant que Moscou se préparait à une grande guerre d’envergure qui devait être lancée par deux grandes percées à partir de Belgorod, vers le sud, et de la Crimée, vers le nord, afin de prendre en tenailles l’essentiel de l’armée ukrainienne qui se trouvait dans la partie orientale du pays. L’objectif aurait été de la détruire et d’imposer une solution favorable aux intérêts russes. Côté ukrainien, certaines sources indiquent qu’il y aurait également une volonté de reproduire le scénario azéri, pour récupérer militairement les territoires russophones rebelles de l’Est, l’Ukraine escomptant que la Russie n’ose pas intervenir massivement et directement dans le Donbass pour plusieurs raisons : primo, Moscou n’a pas le droit légal d’intervenir sur le sol ukrainien dont le Donbass (voir carte n o 14) fait partie, sachant que l’indépendance de ces républiques autoproclamées n’a jamais été reconnue par les autorités russes elles-mêmes (comme celle du Haut-Karabagh). Ainsi, Kiev croyait que Moscou se serait comporté dans le Donbass de la même façon qu’elle l’a fait au Nagornyi-Karabakh, c’est-à-dire en suivant scrupuleusement le droit international et les frontières légales reconnues. Secundo, l’Ukraine espérait que la menace des sanctions très lourdes infligées par l’Occident à la Russie, si elle optait pour un scénario de guerre directe, dissuaderait Moscou d’agir de la sorte. Tercio, le soutien indirect de l’Alliance atlantique, qui s’est montrée solidaire de l’Ukraine en mobilisant des troupes et en se disant prête à dépêcher des bâtiments de guerre en mer Noire, a constitué une autre forme de dissuasion car cela aurait pu déboucher sur une guerre conventionnelle à grande échelle que la Russie ne pourrait pas gagner ou se permettre de livrer. Il convient aussi de souligner que cette crise a récemment pris une forme différente car le président américain Joe Biden est intervenu directement en soutien de Kiev, à la différence des réactions prudentes de Barack Obama en 2014, secondé d’ailleurs par Biden lui-même, alors adepte de l’apaisement. Il est vrai que depuis lors, l’armée ukrainienne s’est considérablement rénovée : en 2014, elle ne pouvait aligner que 6 000 soldats prêts au combat, alors qu’aujourd’hui elle compte des dizaines de milliers de soldats bien entraînés par des instructeurs américains et canadiens présents en Ukraine dans le cadre d’accords de coopération militaire. Le budget de l’armée ukrainienne a été augmenté et les forces nationales restructurées. Le géopolitologue Viatcheslav Avioutskii rappelle ainsi qu’en 2020, le Pentagone a accordé 250 millions de dollars au titre de l’aide militaire aux forces armées ukrainiennes. Les Ukrainiens ont cependant toujours réfuté les rumeurs d’intention guerrière en insistant sur le fait qu’ils cherchent une solution diplomatique, le président Volodymyr Zelensky ayant même proposé une nouvelle rencontre personnelle dans le Donbass ukrainien à Vladimir Poutine. Mentionnons également le soutien de la Turquie d’Erdoğan au camp nationaliste ukrainien : le néosultan essaie d’utiliser l’Ukraine dans ce jeu d’échecs régional – au même titre qu’il le fait en Syrie et en Libye. À l’apogée de la crise du printemps 2021, il est d’ailleurs intéressant de rappeler la visite du président ukrainien Zelensky à Ankara pour afficher le soutien d’Erdoğan à sa cause, cela avant même de se rendre à Paris pour rencontrer Emmanuel Macron... Ce dernier a d’ailleurs évité de s’impliquer dans cette affaire trop délicate et problématique pour lui, d’autant qu’il est à couteaux tirés avec le néosultan turc et demeure objectivement du côté russe sans l’avouer. Ce conflit existentiel russo-ukrainien, alimenté par la nouvelle guerre froide russo-occidentale, peut-il vraiment être résolu autrement que par la guerre ? Le scénario le plus probable est que l’Ukraine obtiendra à terme son intégration au sein de l’Otan, de plus en plus empathique envers sa cause, et qui profitera de ce prétexte pour s’étendre toujours plus à l’est au détriment de « l’étranger proche russe ». Ceci pourrait donner la possibilité à l’Ukraine de récupérer militairement un jour ses territoires contestés, ou au moins forcer la main à la Russie dans le cadre de négociations. Cependant, Moscou n’acceptera pas facilement ce type de scénario d’empiétement majeur sur son pré carré. Vladimir Poutine pourrait alors avoir recours à de nouvelles escalades du type de celle du printemps 2021. La guerre avec l’Occident (Otan), directe ou indirecte, n’est quant à elle pas totalement à exclure, certes dans le scénario le plus pessimiste. Cela signifierait que la Russie, si elle est encore contrôlée par les forces hostiles à l’Alliance atlantique, accentuerait son rôle d’État multipolariste soutenant des États hostiles à l’Occident, dont la Chine, la Corée du Nord, l’Iran, et toutes les autres forces alternatives. Cet énorme gâchis géopolitique, qui empêche toute réconciliation occidentalo-russe panoccidentale, serait désastreux pour l’autonomie stratégique de l’Europe et la sécurité collective des Occidentaux, et ne bénéficierait qu’aux deux grands prédateurs civilisationnels et stratégiques revanchards que sont l’islamisme radical étatique ou transnational et la Chine néomaoïste. Taiwan : vers un affrontement direct Chine-États-Unis ? La situation actuelle à Taiwan est également fortement sismique. Depuis avril 2021, les potentialités belligènes du contentieux qui oppose depuis des années, sur le terrain diplomatique et politique, la Chine communiste- continentale à l’île de Taiwan, se sont nettement intensifiées. Le 12 avril 2021, la pénétration de vingt-cinq avions de combat chinois dans la zone de défense aérienne de Taiwan 15 a constitué la plus grande incursion de l’armée chinoise dans la zone que Pékin a cherché longtemps à isoler diplomatiquement avec succès au nom du slogan « une seule Chine », mais que le président chinois Xi Jinping a promis d’annexer de son vivant de gré ou de force. L’urgence de la situation a été pointée du doigt devant le comité des forces armées du Sénat américain le 9 mars 2021 par Philip Davidson, le chef du commandement du Pacifique des États-Unis 16 , pour qui une guerre serait même possible entre les États-Unis et la Chine si cette dernière maintenait son engagement d’envahir Taiwan avant la fin de la décennie. Davidson a notamment averti que les États-Unis ont toutefois fort peu de chances d’empêcher cette invasion, car la Chine possède l’avantage, que ce soit du point de vue du nombre que du point de vue logistique, les bases chinoises n’étant qu’à deux cents kilomètres de Taiwan. En réponse aux avertissements et aux velléités interventionnistes de l’administration Joe Biden tant dans les prés carrés russes (Ukraine) que chinois (mer de Taiwan), la Russie et la Chine ont d’ailleurs uni leurs forces pour menacer les États-Unis simultanément dans deux points chauds. Ainsi, le 13 avril 2021, au moment où les forces russes se sont massées à la frontière ukrainienne alors que les navires de guerre américains se préparaient à entrer dans la mer Noire, le vice-ministre russe des Affaires étrangères, Sergueï Ryabkov, a mis en garde l’équipe Biden contre toute implication en Ukraine, et le même jour, quand les navires de guerre américains ont tenté de dissuader en vain l’aviation chinoise de pénétrer en masse dans l’espace aérien de Taiwan, le porte-parole du ministère chinois des Affaires étrangères, Zhao Lijian, mettait en garde l’administration Biden lors d’une conférence de presse contre toute implication à Taiwan. Pour la première fois, les deux régimes ont symboliquement synchronisé leurs avertissements, mettant en garde les États- Unis de ne pas franchir la ligne rouge pouvant mener à un conflit ouvert. Nul doute que c’est en partie dans le but de tenter de conjurer cette « alliance antihégémonique » tant redoutée par Brzezinski et dans le cadre de la prise de conscience de la menace chinoise croissante que le président Biden a tenté d’initier un apaisement avec la Russie lors de sa rencontre avec Vladimir Poutine, à Genève, le 16 juin 2021. Mais l’on est d’autant plus loin d’un reset avec Moscou que, quelques jours plus tôt, lors du sommet de l’Otan, le 14 juin, à Bruxelles, les États-Unis ont ciblé une fois de plus l’ennemi russe et le tandem russo-chinois, accusé de « rejeter l’ordre international fondé sur des règles », comme si les États-Unis et l’OTAN les avaient eux-mêmes respectées (Balkans, Irak, Lybie, etc)... La « surreprésentation » des conflits intraétatiques Aujourd’hui, les conflits intraétatiques sont ultramajoritaires. Durant la période 1975-2000, sur vingt-huit conflits de premier ordre, huit sont interétatiques, six postcoloniaux et quatorze intraétatiques. Entre 1990 et 2018, sur quatre-vingt-seize conflits de premier ordre, les soixante premiers conflits sont ou ont été clairement intraétatiques. On peut citer, par exemple, la guerre civile syrienne, sur laquelle nous reviendrons, celle du Yémen, toujours en cours, qui oppose rebelles chiites-houthistes soutenus par l’Iran, d’une part, aux sunnites progouvernementaux liés aux Frères musulmans et aux monarchies du Golfe, de l’autre, soutenus par les États-Unis et l’Occident ; le conflit intercommunautaire opposant les Philippines à la Malaisie dans l’État malaisien de Sabah (2013) ; les conflits africains, surreprésentés : Congo/Kinshasa 17 ; Ethiopie, où les rebelles de la région dissidente du Tigré (Nord), en guerre contre le pouvoir central et son ethnie majoritaire (Oromo), ont pris les principales villes de la zone, Adigrat, Shiré et depuis le 29 juin 2021, la capitale régionale Mekele ; Côte d’Ivoire (opposition entre ethnies rivales, Nord rebelle et capitale, puis entre pro-Gbagbo et pro-Ouattara) ; Kivu 18 ; République centrafricaine (luttes interethniques et conflits sédentaires chrétiens/musulmans venus du Nord), génocides du Soudan (1990- 2000 : chrétiens du Sud-Soudan et musulmans noirs du Darfour exterminés par la junte nationale-islamiste arabe du Nord) ou du Rwanda (1994, Hutus contre Tutsis). Ce dernier conflit a été cruellement révélateur de l’impuissance des Nations unies et donc du dit « multilatéralisme » vanté par les adeptes de la mondialisation heureuse et de la « gouvernance mondiale »... On peut citer aussi bien évidemment l’éternel conflit israélo-palestinien, qui a semblé revenir sur le devant de la scène avec la brève guerre Tsahal-Hamas à Gaza, en mai 2021. Toutefois, avant même cette crise, qui a révélé l’extrême isolement du Hamas, non soutenu par l’Autorité palestinienne et par la plupart des pays arabes, on a pu constater depuis lesdites « révolutions arabes » que le conflit israélo-palestinien a été relégué au second plan, un phénomène renforcé avec les accords d’Abraham de septembre 2020 qui ont scellé la réconciliation entre l’État juif et cinq pays arabes sous l’impulsion des États-Unis et des Émirats arabes unis (alliance contre l’ennemi commun iranien). Durant l’été 2006, une guerre voisine avait déjà opposé Israël à l’homologue chiite- libanais du Hamas, le Hezbollah, lui aussi appuyé par l’Iran (« guerre des 33 jours »), mais il ne s’agissait pas officiellement d’une guerre interétatique Liban-Israël. On pense bien sûr aussi aux conflits du Caucase : celui de Géorgie, en 2008, qui opposa les séparatistes prorusses ossètes du Nord et abkhazes à la Géorgie pro-occidentale de l’ex-président Mikheil Saakachvili, sur fond de tensions occidentalo-russes ; celui qui opposa trois fois forces arméniennes et Azerbaïdjan, analysé plus haut, ou encore celui de Tchétchénie, où se sont opposés, dans les années 1990-2000, une première fois les rebelles indépendantistes puis les djihadistes à Moscou et, une seconde fois, les séparatistes islamistes et djihadistes internationaux wahhabites aux partisans prorusses du clan tchétchène de Hamkhat et Ramzan Kadyrov... Trente-sept conflits ouverts en cours aujourd’hui Concernant les trente-sept conflits ouverts toujours en cours, exception faite du Donbass et du Haut-Karabagh, la présence des États de l’hémisphère Sud demeure écrasante : Irak : conflits internationalisés entre chiites et sunnites ; Kurdes et Arabes ; djihadistes et nationalistes ; Libye : conflits internationalisés entre, d’abord, les pro- et les anti-Kadhafi durant le printemps arabe puis, ensuite, entre les forces islamistes proturques de Tripoli liées à la Turquie et au Qatar et l’armée du maréchal Haftar soutenue par les Émirats arabes unis, l’Égypte, la Russie et la France ; Syrie : cinq cent mille morts des « guerres dans les guerres » entre, d’une part, le régime de Bachar al- Assad, appuyé par l’Iran et la Russie, et, de l’autre, la rébellion sunnite appuyée par l’Occident, la Turquie et les monarchies du Golfe et les légions djihadistes d’al-Qaida et Daesh, elles-mêmes en guerre contre les séparatistes kurdes pro-occidentaux du Nord ; Somalie : implosion du pays en trois entités et prise de contrôle par les djihadistes des tribunaux islamiques et des shebabs pro-al-Qaida liés aux pirates ; Nigeria : entre chrétiens du Sud et musulmans du Nord et entre États fédérés et fédéraux et djihadistes de Boko Haram, etc. ; Cachemire : province indienne majoritairement peuplée de musulmans revendiquée par le Pakistan islamique, etc. ; Sahara occidental : conflit qui oppose depuis des décennies des indépendantistes du Sahara occidental au Maroc qui le revendique et l’occupe en grande partie, un conflit en train de resurgir. Taiwan : conflit précité entre la Chine d’un côté, et Taiwan et son allié les États-Unis de l’autre ; Égypte/Éthiopie/Soudan : conflit autour du barrage du Nil de l’Éthiopie (voir chapitre X). Dans tous ces conflits, l’efficacité des Nations unies et en général du multilatéralisme est nulle, et les rares avancées constatées dans le conflit israélo-palestinien mentionné plus haut ou dans d’autres antagonismes réglés ou gelés sont, dans l’écrasante majorité, dues à des négociations de Realpolitik et aux rapports de force... La zone Sahel devenue une des plus létales au monde... La situation du Mali/Burkina Faso, et en général dans le Sahel, zone grande à elle seule comme toute l’Union européenne, est particulièrement préoccupante et confirme le constat exprimé plus haut de l’échec du multilatéralisme comme des interventions militaires lancées avec l’aval des Nations unies ou d’instances multilatérales régionales, comme le G5 Sahel, l’Union africaine ou la Cedeao : l’intensification et l’extension des actions terroristes vers le sud touchent de plus en plus de régions et d’États d’Afrique. Le conflit malien, initié en 2012 par l’alliance explosive de groupes séparatistes et djihadistes au nord, en guerre contre la capitale, s’enlise depuis déjà dix ans. Il ne cesse de prendre de l’ampleur, avec un nombre d’acteurs croissant, dont une multitude de groupes locaux, arabo-berbères au départ, et de plus en plus peuls, qui ont prêté allégeance tantôt à Aqmi/al-Qaida au Maghreb islamique, tantôt à l’État islamique (EI) au Sahel. L’armée malienne est totalement dépassée, comme l’ensemble des pays du G5 Sahel, et l’armée française n’a pas obtenu de résultats (opérations Serval, Épervier et Barkhane), faute de forces assez nombreuses et de solutions politiques et économiques viables associées. Son échec a débouché sur une suppression de ses bases au Nord Mali et sur une réduction des effectifs militaires dans la zone Sahel de 5 100 à 3 000 soldats. En août 2020, les forces armées maliennes ont perpétré un coup d’État qui a conduit au renversement du président Ibrahim Boubacar Keïta, au pouvoir depuis 2013. De plus, l’escalade des violences intercommunautaires (entre les ethnies dogons et peuls) ne cesse de s’étendre aux pays voisins, notamment le Burkina Faso 19 , et même jusqu’au Bénin ou à la Côte d’Ivoire, jadis épargnés. Entre 2012 et 2020, on y a recensé plus de 8 000 morts, dont 2 700 civils 20 . Le 20 avril, c’est face à des rebelles terroristes du Nord du Tchad que le président tchadien, Idriss Déby, meilleur allié de la France contre le jihadisme, a trouvé la mort. Une énième conséquence de la folle guerre franco-américano-britannique qui a fait de la Libye l’épicentre chaotique qui alimente en armes et mercenaires tout le jihadisme sahélien... L’incessant conflit du Cachemire entre Inde et Pakistan Un autre conflit interétatique qui perdure et qui n’a pas été éteint par le multilatéralisme onusien concerne l’Inde et le Pakistan, toujours à couteaux tirés : avec la révocation de l’autonomie constitutionnelle du Cachemire indien, en août 2019, le conflit qui oppose le Pakistan islamique, parrain des talibans et d’al-Qaida, et l’Inde, dirigée par le parti intégriste hindouiste BJP, s’est intensifié, avec 582 bombardements transfrontaliers en 2019 (contre 349 en 2018 21 ), soit une augmentation de près de 70 %, poussant New Delhi à déployer des dizaines de milliers de militaires à la frontière. La crainte d’une guerre entre les deux nations possédant le feu nucléaire se fait donc de plus en plus ressentir, même si elle se traduit par l’emploi d’armes conventionnelles. Mais comment être certain que ces deux pays ennemis n’utiliseront jamais le feu nucléaire, comme d’autres d’ailleurs, d’autant que le Pakistan est travaillé de l’intérieur par des groupes islamistes liés à al-Qaida et aux talibans et que l’intégrisme hindutva antimusulmans a gagné du terrain ces dernières décennies en Inde ? Après ces événements, le Premier ministre pakistanais, Imran Khan, a d’ailleurs déclaré : « Quand le couvre-feu sera levé, ce sera un bain de sang. Si une guerre commence entre nos deux pays, tout peut arriver », laissant planer la menace d’un conflit nucléaire 22 . L’Inde elle-même n’est pas épargnée par les tensions interethniques et religieuses internes, notamment entre hindous et musulmans, en dehors du territoire disputé du Cachemire. Une fois de plus, les avertissements de Samuel Huntington sur le fait que les chocs entre civilisations ne sont pas empêchés par la globalisation des échanges et les facteurs de contacts mais parfois même multipliés par eux sont plus actuels que jamais. La multiplication des tensions et conflits locaux en Asie Prenons cette fois-ci l’exemple de l’Asie-Pacifique, bien moins sage que le laissent accroire les lieux communs occidentaux sur l’Asie bouddhiste-hindouiste zen et pacifique. À l’heure actuelle, on peut y recenser une bonne soixantaine de contentieux susceptibles de déboucher sur un conflit ouvert. Nous pouvons citer notamment : les tensions permanentes entre la Chine et le Japon, les Philippines et la Malaisie, le Japon et la Corée du Sud, la Malaisie et l’Indonésie ; les litiges frontaliers entre la Chine et le Viêtnam, le Myanmar (Birmanie) et la Thaïlande, le Cambodge, le Viêtnam, Singapour et la Malaisie. Le Japon, par exemple, reste directement impliqué dans quatre contentieux régionaux majeurs : la question des rochers Liancourt, occupés depuis 1954, au cœur de la mer du Japon ; les îles Ryukyu, environnées d’un plateau continental très riche, revendiquées simultanément par le Japon, la Chine de Pékin, la Chine de Taipei et la Corée du Sud ; le secteur méridional de l’archipel des Kouriles, qualifié par Tokyo de « territoires du Nord », originellement peuplé de Japonais, expulsés ensuite, mais occupé par la Russie depuis la fin de la Seconde Guerre mondiale. Cet archipel revêt un fort intérêt économico-stratégique pour la Russie, car il recèle des réserves minières et de terres rares, comme le rhénium 23 , ainsi que des gisements de pétrole et de gaz, il constitue aussi une porte stratégique sur le Pacifique pour les deux bases navales russes de Vladivostok, d’où les navires partent via le détroit qui ne gèle pas en hiver entre les îles Kounachir et Itouroup, deux des quatre îles Kouriles ; le contentieux autour des îles Senkaku (ou Diaoyu en chinois), revendiquées par ces mêmes puissances où la situation est devenue très conflictuelle depuis que le gouvernement japonais a décidé, en septembre 2012, de nationaliser trois des cinq îles de l’archipel 24 qui se situent en mer de Chine orientale. Cette crise met en perspective une dimension géostratégique importante avec pour toile de fond une concurrence pour le leadership régional et un contrôle des nombreuses richesses de la région, la zone ayant un grand potentiel économique notamment grâce aux importants gisements d’hydrocarbures 25 . Les tensions en mer de Chine orientale risquent donc de se prolonger, à moins que les deux pays décident de s’entendre sur une gestion commune des ressources naturelles de la région. La Chine à l’assaut de la mer de Chine méridionale Un conflit similaire oppose également, autour de l’archipel des Paracels et des Spratleys (voir carte n o 6), plusieurs pays du Sud-Est asiatique : Chine, Viêtnam, Taiwan, Philippines, Malaisie, etc., lesquels se disputent la souveraineté territoriale de ces îlots qui occupent une place hautement stratégique, puisque environ un tiers du trafic maritime mondial y passe... Depuis plusieurs décennies, 15 km² de terres émergées comprenant 230 îles dispersées sur 425 000 km² de mers sont au centre des tensions régionales en mer de Chine méridionale, que les Vietnamiens appellent « mer de l’Est ». L’enjeu est d’obtenir les zones économiques exclusives (ZEE) les plus élargies possible, en fonction du droit international, pour les uns (Viêtnam), et contre celui-ci pour les autres (Chine), les buts stratégiques étant l’exploitation des ressources naturelles, puis le contrôle des grands détroits régionaux. Le Viêtnam, puissance émergente du monde multipolaire, qui tente de réaffirmer sa maritimisation régionale, ne pouvant pas lutter à armes égales contre la Chine, mise sur le dispositif de l’Asean (voir cartes n os 3 et 4), qui inclut des pays partageant les mêmes préoccupations (Malaisie, Philippines, Brunei), et se rapproche des États-Unis, l’ancien ennemi juré, ainsi que de l’Inde, et de l’Australie dans une logique d’endiguement de la Chine. Le conflit des Spratleys et Paracels illustre à merveille le processus en cours de reconfiguration multipolaire du monde et les sérieuses limites de l’arbitrage international et du multilatéralisme au profit des purs rapports de force... Ainsi, lorsque la Cour d’arbitrage permanente de La Haye s’était prononcée en 2016 en faveur de Manille à propos du contentieux des Paracels (voir chapitre IX), Pékin avait répondu de façon décomplexée qu’elle n’accordait aucune légitimité à cette décision... L’aberration géopolitique de la question nord-coréenne Comme l’actualité l’a souvent évoqué en raison des personnalités particulières de Donald Trump et du tyran nord-coréen Kim Jong-un, la région Asie-Pacifique est aussi marquée par les conséquences d’une véritable aberration géopolitique : le contentieux coréen se traduit par un armistice vieux de deux tiers de siècle, sans signature de traité de paix et par les spécificités inquiétantes du régime communiste nucléaro-centré nord-coréen qui entretient des relations conflictuelles avec le reste du globe en général, le Japon, la Corée du Sud et les États-Unis en particulier. Le régime de Pyongyang est la plus terrible dictature de la planète. L’armée contrôle la police politique qui espionne tout le monde et encourage la délation. Dans une douzaine de camps de concentration, cent cinquante mille prisonniers, opposants politiques et droit-commun confondus, croupissent au nom de l’idéologie officielle maoïste- stalinienne-nationaliste du juche, qui divinise quasiment le leader suprême et sa dynastie. Toutes les ressources du pays sont détournées au profit de la dynastie Kim alors que la majorité des habitants dispose à peine de quoi se nourrir. Ce pays, qui avait été rangé dans la catégorie d’« État voyou », menace régulièrement de frappe nucléaire l’archipel japonais et les îles Hawaï, et négocie ainsi, par la terreur, des aides humanitaires et financières récurrentes. Séoul est directement la cible d’assassinats politiques, détournements d’avion, attaques terroristes, chantages de la part de Pyongyang. Tout cela a motivé les administrations américaines néoconservatrices de G. Bush Jr à ranger la Corée du Nord dans l’axe du mal. Ceci dit, il convient de comprendre la rationalité du régime nord-coréen et la raison de sa longévité, ceci malgré l’horrible famine qui a décimé 6 % de sa population. De ce point de vue, le jugement de valeur moral stigmatisant Pyongyang « ne permet pas, non plus, d’expliquer pourquoi le Nord remporte chacune des parties de bras de fer qui l’opposent à la communauté internationale 26 , observe justement Pascal Dayez- Burgeon. [...] Grâce au chantage humanitaire, il a obtenu des programmes de l’ONU, de la Chine, des États-Unis et de nombreuses ONG sud-coréennes, l’aide indispensable pour survivre. Grâce au chantage nucléaire, il s’est également ménagé l’appui de Washington », qui a soutenu un temps ses ambitions nucléaires civiles... Quant à la Chine, elle doit manœuvrer habilement. Et si elle a parrainé les rencontres de dialogue en vue de la paix entre Kim Jong-un et Donald Trump depuis 2017, c’est aussi parce que le régime de Pékin n’a pas intérêt à ce que la menaçante dictature stalino-maoïste autarcique continue à être « l’ennemi utile » qui justifie le renforcement du dispositif balistique, radar et antimissile de l’armée américaine dans la région. Cette présence étatsunienne stratégique (sous-marins lanceurs d’engins, flotte américaine en mer de Chine, coopération de défense avec la Corée du Sud et le Japon, etc.) est fort problématique pour la capacité de dissuasion chinoise et son objectif de contrôler son flanc maritime sud. La Corée du Nord, enfin, joue très bien le rôle du « fou » qui s’oppose au fort, dans une sorte de travestissement de la doctrine du général Gallois dite « du faible au fort », devenue « du fou au fort ». D’autres, à commencer par le dictateur Kim Jong-un lui-même, ont parlé « d’assurance-vie » : l’Irak et la Libye ont renoncé à leurs programmes nucléaires et n’ont pas échappé aux interventions militaires occidentales de regime change, se plaît souvent à répéter Kim Jong-un, à juste titre d’ailleurs. Il est vrai que quelques ogives nucléaires associées à des missiles balistiques de longue portée suffisent à calmer les plus grandes puissances, dont plus aucune des capitales ne demeure à l’abri. Contrairement à Saddam Hussein ou à Kadhafi, la Corée du Nord a eu l’intelligence de ne pas attendre longtemps avant de lancer un programme de développement du nucléaire qu’aucune puissance ne peut plus se permettre aujourd’hui de bombarder. La morale de cette histoire est que les Occidentaux, en renversant deux régimes qui ne les avaient pas ou plus agressés (Irak, Libye), une fois que ceux-ci avaient renoncé au nucléaire militaire, ont donné des raisons à tous les autres régimes voyous ou antioccidentaux du monde qui en auraient les moyens de ne jamais renoncer au nucléaire, ou d’y songer fortement en tant qu’assurance-vie... La superpuissance montante et revancharde chinoise La Chine a connu de profonds bouleversements depuis un demi-siècle sur le plan des relations internationales. Pourtant, une constante l’anime : essayer de conjurer par tous les moyens le spectre des concessions, notamment vis- à-vis de l’Occident, qui obligèrent la Chine à céder des pans de son territoire et plusieurs de ses ports, dont Hong Kong, aux puissances européennes, dans la foulée des deux guerres de l’opium (1839-1842, 1856-1860). Ces affronts n’ont jamais été oubliés ni pardonnés par Pékin. Et les stratèges, dirigeants et chroniqueurs chinois évoquent régulièrement l’humiliation passée des occupations de Pékin et Shanghai, etc. Outre ces contentieux historiques, dont Hong Kong est un des symboles, deux faits majeurs ont rappelé que la Chine est de plus en plus sûre d’elle- même : parallèlement aux incidents de frontières avec la Russie le long du fleuve Amour – rivalité qui persiste malgré leur alliance stratégique au sein de l’OCS (voir chapitre V) –, son contentieux avec l’Union indienne, d’une part, et son souci de s’affirmer comme une véritable puissance maritime, d’autre part, sont des tendances lourdes. Deux contentieux frontaliers ont ainsi resurgi récemment entre la nouvelle superpuissance chinoise et l’Union indienne, puissance nucléaire depuis 1974 : après une période de relative accalmie, les pays rivaux sont en situation de conflit latent à l’est du Cachemire (également source de conflits pérennes avec le Pakistan, autre puissance nucléaire), et l’on se souvient de la guerre sino-indienne de 1962, brève mais très violente, pour le contrôle des territoires himalayens. La Chine occupe trois territoires revendiqués par l’Inde, dont le Ladakh, d’un haut intérêt stratégique, où les armées chinoises et indiennes ont été au bord du conflit en 2019-2020 et où la Chine a multiplié les bases militaires. Pékin a également remis en question l’accord dit « de la ligne MacMahon » et s’est installé dans l’Himachal Pradesh. Plus important peut-être à l’échelle de l’Asie-Pacifique : l’affirmation de la puissance maritime chinoise se traduit en particulier par la multiplication de ses installations militaires au large de son littoral et de manière spectaculaire en mer de Chine méridionale, de Food Island à Mischief Reef, en passant par Fiery Cross... Au-delà de cet exemple édifiant, un constat général s’impose : les contentieux de premier ordre, susceptibles de dégénérer en conflits ouverts, sont plus que jamais d’actualité et se sont nettement multipliés. Ceci étant, cette observation s’explique aussi par la découverte et l’exploitation d’appréciables ressources naturelles. Le politiste américain Michael L. Ross, de l’Ucla (l’Université de Californie à Los Angeles), avait pu écrire naguère « que les économies d’extraction constituent une véritable malédiction dans la mesure où les probabilités de conflits ouverts dans les pays possédant du pétrole, du gaz, des diamants, des minerais rares ont fortement augmenté au cours du dernier tiers de siècle, au même titre que le nombre de groupes rebelles multipliant ici ou là les exactions 27 ». Nous verrons au cours des passages de cet essai consacrés aux énergies, aux guerres de l’eau et des terres rares que les exemples ne manquent pas (voir chapitre X). Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Pour récapituler, dans le monde instable et multipolaire qui vient, les conflits majeurs et potentiels – qui ne comprennent pas les risques climatiques ou sanitaires, plus indépendants des agendas politiques et géopolitiques et étudiés plus loin – peuvent être fondés sur : des antagonismes géoénergétiques ou autour de l’eau et des terres rares ; la persistance des rivalités et conflits infra-étatiques internationalisés ou régionalisés ; la guerre géoéconomique et financière autour des rivalités entre l’Occident et ses outsiders et entre les acteurs principaux du monde polycentrique ; des conflits identitaires que Samuel Huntington a rangés dans la catégorie des « chocs de civilisations » ; des phénomènes migratoires de masse incontrôlés ; le terrorisme international, très majoritairement islamiste ; les chocs des empires naissants ou résurgents (néo-ottomanisme turc versus nationalismes arabes et Europe ; États-Unis versus Chine et Russie). 1. Jacques Soppelsa, Les Sept Défis capitaux du nouvel ordre mondial, Paris, A2C Médias, 2009. 2. Entretien avec Éric Denécé, « Nouvelles menaces, nouveaux risques, nouveaux défis, la France est-elle préparée ? », Atlantico, 28 janvier 2020. 3. Irak, Afghanistan, Libye, Syrie, ex-Yougoslavie, Ukraine, Géorgie, Yémen, Soudan, Mali, Somalie, RCA, Côte d’Ivoire, RDC. 4. Étude scientifique de la guerre considérée comme « phénomène psychologique et social ». 5. Gaston Bouthoul et René Carrère, Le Défi de la guerre. 1740-1974 : deux siècles de guerre et de révolution, Paris, PUF, 1976, p. 34. 6. Conflits frontaliers entre le Pérou et l’Équateur en janvier-février 1995. 7. À Khojaly, les forces arméniennes vont massacrer 613 civils, dont 63 enfants et 70 vieillards et déplacer 1 275 otages. Les circonstances, que la propagande azérie qualifie de « génocide », demeurent non élucidées. 8. Devenue à partir de 1995 l’Organisation pour la sécurité et la coopération en Europe (OSCE). 9. En mai 1994, suite à la guerre du Karabakh, le Groupe de Minsk est médiateur pour signer le traité de Minsk qui organise un cessez-le-feu au Haut-Karabagh. Il est alors coprésidé par les États-Unis, la France et la Russie et inclut l’Allemagne, la Biélorussie, la Finlande, l’Italie, les Pays- Bas, le Portugal, la Suède, la Turquie, l’Arménie et l’Azerbaïdjan. 10. Durant la guerre d’avril 2016 (« guerre de 4 jours »), l’armée azérie a tenté de reprendre le Karabakh par la force, un cessez-le-feu avait été obtenu grâce à la médiation russe. Ankara n’a alors pas bougé. La nouveauté de 2020 a été la supériorité technologique des Azéris et la participation active de l’armée turque. 11. « Principes de Madrid », www.chroniques-diplomatiques.eu/2010/03/les-principes-de-base-de-madrid-et-le.html. 12. Via la vente de satellite d’observation soi-disant civil... 13. Alexandre Del Valle, « Haut-Karabakh. Du Caucase à l’Afrique, de Libye en Azerbaïdjan : les nouveaux fronts stratégiques d’Erdoğan », Atlantico, 12 octobre 2020. 14. Voir Tigrane Yégavian, « Les Diasporas turque et azerbaïdjanaise de France : instrument au service du panturquisme », rapport n o 27 du CF2R, téléchargeable sur https://cf2r.org/.../les-diasporas-turques-et.../. 15. « Tensions. Taïwan dénonce une incursion record de 25 avions militaires chinois près de ses côtes », Courrier international, 13 avril 2021. 16. Thomas Romanacce, « L’US Army devrait utiliser la quasi-totalité de ses ressources pour repousser une invasion chinoise à Taiwan », Capital, 27 avril 2021. 17. Première guerre du Congo (1996-1997), entre le président zaïrois Mobutu Sese Seko, l’Angola et l’Ouganda, qui verra la victoire de Laurent- Désiré Kabila, créateur de la République démocratique du Congo ; et deuxième guerre du Congo (1998-2003) qui impliqua neuf pays africains et trente groupes armés..., ce qui en fait la plus grande guerre entre États en Afrique (« Grande Guerre africaine »), entre 200 000 environ et 4 millions de morts. 18. Guerre ethnique débutée en 1993, entre Hutus et Tutsis, qui, depuis le Rwanda, déborde au Kivu et oppose milices armées, soutenues par Mobutu, ex-Président du Zaïre (future RDC), et Tutsis rwandais et Ougandais soutenant Laurent-Désiré Kabila. Au Kivu s’affrontent sur divers fronts Hutus, Tutsis, forces pro-ougandaises et armée de Kinshasa. En 2001, L. – D. Kabila, assassiné, et remplacé par son fils, Joseph. La guerre prend fin en 2003. 19. Delphine Papin, Flavie Holzinger, Riccardo Pravettoni, « Du Mali au Burkina Faso, une spirale de violence », Le Monde, 23 juin 2019. 20. Données : Armed Conflict Location and Event Data project (ACLED). 21. Benjamin Roman, « Panorama des conflits dans le monde : quels risques géopolitiques futurs ? », Portail de l’IE, 18 juin 2020. 22. Sophie Landrin, Carrie Nooten, « Cachemire : Imran Khan brandit le risque d’une guerre nucléaire », Le Monde, 28 septembre 2019. 23. Métal rare utilisé notamment dans le secteur aéronautique. 24. Uotsurijima/Diaoyu Dao, Kita-Kojima/Bei Xiaodao, Minami-Kojima/Nan Xiaodao. 25. Selon l’Agence internationale de l’énergie, il y aurait entre 60 et 100 millions de barils de pétrole et entre 1 000 et 2 000 milliards de mètres cubes de gaz naturel aux alentours. Voir site de l’organisme ; www.aie.gov. 26. Pascal Dayez-Burgeon, « Dédiaboliser la Corée du Nord ? », Politique internationale, n o 140 – Été 2013. 27. Michael L. Ross, The Oil Curse. How Petroleum Wealth Shapes the Development of Nations, Paperback, 2012. CHAPITRE IV De l’ancienne à la nouvelle guerre froide ? « Nous avons des types d’armes prometteurs, absolument exclusifs [...], des systèmes de missiles qui ne volent pas sur une trajectoire balistique mais rasante, avec une vitesse hypersonique. Pour l’instant, personne n’a d’armes hypersoniques... » Vladimir Poutine Depuis la chute pacifique et l’éclatement de l’URSS, la Russie, pays où il existe un taux d’imposition forfaitaire de 13 % (flat tax), digne d’Andorre ou de Monaco, n’a plus rien à voir avec l’Union soviétique. Les menaces géopolitiques majeures pour le modèle capitaliste occidental et les démocraties se trouvent plutôt du côté de l’islamisme radical, de la Turquie postkémaliste néo-ottomane, des nouvelles mafias transnationales, des phénomènes de fractures ethnoreligieuses intranationales, et bien sûr du modèle antidémocratique chinois néomaoïste. Mais les pays de l’Alliance atlantique, États-Unis en tête, ne semblent pas avoir changé de logiciel géostratégique. Les États-Unis, l’UE et l’Otan ont donc continué à penser la Russie comme le clone monstrueux de l’Union soviétique, un ennemi majeur. Les États-Unis, l’Alliance atlantique et l’Union européenne – vassalisée depuis 1950 – ont étendu leur puissance vers l’Europe centrale et orientale, jusqu’aux pays baltes et aux Balkans, ce qui a été ressenti par la Russie comme une humiliation, car il s’agit de son ancienne zone d’influence du temps de la guerre froide. Or, en 1994, puis en 1997, le prédécesseur et parrain politique de Vladimir Poutine, Boris Eltsine, avait ratifié le Partenariat pour la paix de l’Otan, puis le partenariat Otan-Russie qui devaient permettre une coopération et tourner définitivement la page de la guerre froide. Il n’en était rien : les ingérences occidentales qui ont pris la forme d’interventions militaires directes en ex- Yougoslavie, en Irak ou en Libye, ou celles indirectes contre la Russie en Géorgie, en Tchétchénie, ou en Ukraine, sans oublier l’obsession américaine de renverser la dictature prosoviétique de Bachar al-Assad, ont dangereusement interrompu ce processus en poussant la Russie eltsinienne et poutinienne, à devenir un ennemi. Après l’Irak, la goutte d’eau qui fera déborder le vase sera le soutien américano-européen aux forces ukrainiennes antirusses entre 2004 (révolution orange) et 2013-2014 (seconde révolution ukrainienne ou Euromaïdan) puis aux forces révolutionnaires arabes islamistes tournées contre l’allié majeur de la Russie en Méditerranée arabe, la Syrie. Ici, comme en Crimée ukrainienne, la stratégie américaine de changements de régime visait ni plus ni moins à faire perdre à Moscou le contrôle de ses bases militaires stratégiques installées depuis des décennies à l’ouest de la Syrie (Tartous) et à Sébastopol, en Crimée, sans lesquelles la Russie perd son accès vital à la Méditerranée orientale et son statut de puissance maritime mondiale. La suite, ou plutôt la réaction, est connue : double intervention militaire russe spectaculaire en Syrie, pour sauver Bachar al-Assad de l’offensive des rebelles islamistes et djihadistes, puis en Crimée, avec l’annexion de celle-ci par la Russie, et ainsi qu’indirectement en Ukraine orientale (Donbass). Dans les deux cas, les Russes ont conservé leurs acquis stratégiques sur leurs flancs sud. Prétextant de la menace croissante russe dans le contexte de la guerre civile ukrainienne et de l’annexion de la Crimée, les États-Unis, en guerre géoénergétique avec la Russie pour l’approvisionnement en gaz de l’Europe (gaz russe versus gaz de schiste américain), firent adopter par l’ensemble des pays occidentaux des sanctions américaines et internationales contre la Russie, de ce fait poussée dans ses retranchements. À cet égard, les premières déclarations et décisions du président Joe Biden, pourtant supposé être plus mesuré que son prédécesseur Donald Trump, n’ont pas été dans le sens de l’amélioration des relations russo-américaines : après avoir qualifié (17 mars 2021) Vladimir Poutine de « meurtrier », Joe Biden a accusé la Russie d’essayer de continuer à influencer la politique intérieure américaine et il a non seulement renforcé les sanctions contre Moscou en mettant sur une liste noire trente-cinq personnes morales et physiques russes, mais aussi interdit aux entreprises et citoyens américains d’acquérir et acheter des bons du Trésor russe destinés à financer la dette de la Russie. Théoriquement, l’analyse officielle de l’Otan est qu’un pays peut intégrer l’Alliance s’il est stable et s’il peut apporter des ressources, synergies et forces supplémentaires, ce qui signifie que des pays ayant de graves contentieux territoriaux et conflits ouverts avec leurs voisins ne sont pas éligibles. Ceci explique pourquoi l’Ukraine et la Géorgie ont raté leurs premières tentatives d’intégration lors des sommets 2008, jusqu’avant la crise russo- géorgienne. En revanche, l’escalade russo-ukrainienne du printemps 2021 analysée plus haut montre l’évolution significative de l’Alliance sur ce sujet, puisque son secrétaire général, Jens Stoltenberg, tout en ne répondant pas positivement à l’intégration immédiate de l’Ukraine, n’a pas fermé la porte et a même plus précisément conditionné son intégration à la mise en place de réformes institutionnelles que les partenaires occidentaux de l’Ukraine exigent depuis bien longtemps. Le même raisonnement a été avancé par Emmanuel Macron au Président ukrainien Volodymyr Zelensky, lorsque ce dernier est venu demander à son homologue français son soutien à l’entrée dans l’Otan lors de la rencontre du 16 avril 2021. Le fait que l’Occident semble de plus en plus ouvert à une intégration de l’Ukraine à l’Alliance atlantique ne peut qu’envenimer ses relations déjà exécrables avec la Russie, et de ce fait mettre en danger la stabilité de cette zone postsoviétique et de l’ensemble de l’Europe. L’Europe, théâtre de guerre nucléaire entre États-Unis et Russie ? Certes, le scénario d’un conflit nucléaire Occident-Russie autour du dossier ukrainien ou d’autres est quasi impossible, compte tenu du principe de dissuasion d’une telle arme. Sur le plan stratégique, la situation est tout de même préoccupante : le 2 août 2019, après plus de vingt ans de discorde et de poussée américano-occidentale vers le pré carré russe, les États-Unis sont sortis du traité de désarmement relatif aux forces nucléaires de portée intermédiaire (INF), décision lourde de conséquences qui a incité la Russie à faire de même en réaction. Et en novembre 2019, le Pentagone a réaffirmé que le nucléaire pouvait être utilisé comme toute autre arme contre les objectifs militaires de l’ennemi. Des exercices annuels et des manœuvres navales de l’Alliance atlantique ont lieu depuis 2016 de façon de plus en plus intense, de la Baltique à la mer Noire. Des blindés américains paradent près de la Finlande, en Estonie, en Roumanie, en Bulgarie, et surtout en Pologne. Des exercices mobilisent six mille soldats de dix pays de l’Otan, des bombardiers, chasseurs et hélicoptères en zone balte. Entre 2000 et 2019, l’Alliance a inauguré en Roumanie et en Pologne des sites stratégiques de missiles antimissiles, des installations de radars en Turquie, puis des navires de guerre américains en Méditerranée. Depuis janvier 2021, les États-Unis et l’Alliance atlantique ont placé leurs troupes en état d’alerte renforcée après la reprise des combats en Ukraine et dénoncent une stratégie d’intimidation de la Russie. Le secrétaire général de l’Otan a réitéré son soutien total au camp ukrainien et au président Volodymyr Zelensky qui, selon les rumeurs, aurait préparé une offensive en vue de récupérer les territoires du Donbass occupés par des forces prorusses. Depuis le début de 2021, la Russie accuse l’armée ukrainienne d’avoir massivement bombardé des villages prorusses de l’Est ukrainien et Washington d’avoir envoyé des navires de guerre en mer Noire et des troupes à la frontière russe et dans la mer Baltique : 40 000 militaires et 15 000 pièces d’armement et véhicules, dont des avions stratégiques 1 . Cinq cents soldats américains supplémentaires ont également été positionnés en Allemagne en cas d’escalade. L’Ukraine et les États-Unis accusent en retour la Russie d’avoir déployé plus de 80 000 soldats en Crimée depuis 2014 et de préparer une offensive en cas de reprise des territoires prorusses par Kiev. En réponse à ce qu’elle analyse comme une menace majeure de la part de l’Otan, la Russie a effectué, le 14 avril 2021, des entraînements en tir d’artillerie en mer Noire puis a envoyé une partie de sa flotte ainsi que des hélicoptères de l’aviation navale. Pour les États-Unis et l’Otan, l’ennemi est plus que jamais la Russie. L’« Acte fondateur Otan-Russie », signé en 1997, qui engageait l’Alliance à ne pas déployer de forces supplémentaires dans les nouveaux pays membres de l’Alliance atlantique, est mort, du moins dans les faits. Avec l’élargissement de l’Otan aux frontières de la Russie, source d’une néoguerre froide, cette rupture de l’équilibre stratégique a achevé de pousser la Russie plus encore dans les bras de la Chine. Pour Moscou, l’installation d’un bouclier antimissile en Pologne et en République tchèque remet en cause sa dissuasion nucléaire à sa porte... Ce dispositif, certes annulé en 2009 par Barack Obama, sera remplacé par un autre système (Défense antimissiles balistiques de théâtre – TBMD) encore plus problématique pour la Russie. Face à cette remise en cause de sa capacité de frappe « en second » (principe de base de sa dissuasion nucléaire stratégique), la Russie a suspendu toute coopération au sein du Conseil Otan-Russie. L’annexion de la Crimée par la Russie en 2014 a servi de prétexte a posteriori à l’Otan pour justifier la protection stratégique de l’Europe face à ladite « menace russe ». En réaction, Moscou va déployer à son tour ses lanceurs mobiles du système sol-sol Iskander dans l’enclave de Kaliningrad. Vladimir Poutine a ainsi annoncé la mise au point par la Russie d’une panoplie de nouvelles armes stratégiques, toutes réputées quasiment impossibles à intercepter et capables de frapper en n’importe quel point du globe. L’Amérique a réussi à faire de l’Europe à nouveau le théâtre d’opération d’une « bataille nucléaire de l’avant » sur les frontières avec la Russie. Ce processus – entamé depuis les années 1992-1998-2003 – d’exclusion occidentale de la Russie, désignée comme l’ennemi suprême, permet en réalité de pérenniser la domination atlanto-américaine du continent européen et donc sa division. Nous sommes ainsi revenus à l’équivalent de la guerre froide, sans mur, cette fois-ci, mais bien pire sur le plan stratégique. Contrairement aux années 2003-2009, ce n’est plus le prétexte hypocrite de la menace iranienne qui justifie ce déploiement américain aux portes de la Russie, déjà poussée à bout par l’élargissement qui a précédé, mais une hypothétique menace russe qui nécessiterait de faire du territoire de l’UE lui-même le champ de bataille Russie-États-Unis... On est très loin du reset d’Obama annoncé initialement, comme Trump après lui, pour pacifier les relations russo-américaines. L’occasion manquée de l’alliance russo-occidentale (1999-2003) Pourtant, en 1990, la stratégie des pays de l’Alliance atlantique avait semblé aller dans le sens d’un rapprochement panoccidental ou russo-atlantique. Rappelons qu’après l’implosion de l’Union soviétique, la Russie ne cessa de se rapprocher de l’Otan, qui semblait tirer les leçons de la chute de l’ex-ennemi soviétique. Ainsi, en 1994, Moscou ratifia le programme du Partenariat pour la paix de l’Otan, une première. Puis en mai 1997, un accord de coopération mutuelle stipulant en préambule que les deux pays n’étaient plus des ennemis. Vinrent ensuite les intégrations d’ex-pays membres du pacte de Varsovie dans l’Otan puis dans l’UE, devenus indépendants après 1989, qui conforta même sa coopération avec les Occidentaux (exercices militaires communs, fréquentes consultations ; ouverture d’un point de transit de l’Alliance à Oulianovsk, en Russie, afin de favoriser l’acheminement de matériel vers le front afghan, etc.). Certes, la Russie n’était pas enchantée de l’extension sans fin vers l’est, mais les lignes rouges du Kosovo, de la Géorgie et de l’Ukraine n’avaient pas encore été franchies et les révolutions de velours puis la seconde guerre en Irak n’avaient pas encore produit leurs effets délétères. Andrei Kozyrev, l’ancien ministre des Affaires étrangères de Boris Eltsine, connu pour son occidentalisme passionnel, définissait ainsi sa doctrine et celle de Boris Eltsine à ce moment : « Prendre modèle sur les pays démocratiques avancés, être admis dans leur club sur un pied d’égalité, tout en restant digne et en gardant sa personnalité ; telle est notre conception. » Il envisageait de fusionner les structures militaires de la CEI et de l’Otan et espérait que la Russie intégrerait le Conseil de l’Europe et l’Union européenne. Au départ, la politique pro-occidentale d’Eltsine et de Kozyrev fut clairement appuyée par le peuple russe qui avait une excellente image de l’Occident, alors perçu comme une force amicale, alors qu’aujourd’hui, la tendance s’est nettement inversée 2 . Après la période Eltsine, l’ascension progressive de Vladimir Poutine fut au départ marquée par un fort prisme pro-européen et pro-occidental, puisque ce dernier commença sa carrière politique avec le clan des libéraux (pro- occidentaux) du maire de Saint-Pétersbourg, Anatoli Sobtchak. La chose est souvent oubliée : dès son arrivée au pouvoir (hiver 1999-2000), Vladimir Poutine ne cessa de multiplier les signes d’ouverture envers les États-Unis, essayant d’établir une alliance russo-occidentale, à l’opposé de l’image d’antioccidental primaire et de nostalgique de l’URSS que l’Occident a forgée de lui. Poutine voyait dans une libéralisation maximale de l’économie et dans sa débureaucratisation les clés de la renaissance et celui que la presse occidentale définit souvent comme un nostalgique de Staline a toujours été très critique à l’égard de l’héritage soviétique, dont il estime que « nous récoltons aujourd’hui les fruits amers ». C’est d’ailleurs ce même Poutine qui fit acte de candidature à l’OMC, et qui fut le premier dirigeant russe postsoviétique ayant affirmé que la Russie appartient à la culture européenne occidentale. Il n’a d’ailleurs jamais cessé de plaider en faveur d’une coopération plus étroite avec l’Union européenne. Quant aux relations russo-américaines, il a toujours répété qu’il ne choisira jamais de réactiver les facteurs de confrontation. De son côté, George W. Bush, alors moins moraliste et manichéen que les démocrates et les autres néocons, ne semblait pas avoir d’a priori négatifs envers le dirigeant russe qu’il reçut dans son ranch privé, fait assez rare et grande marque de proximité de sa part. En juillet 2001, lorsqu’il rencontra le Président russe, il fit savoir qu’il avait vu en Poutine « un homme qui pense que son avenir est avec l’Occident et non avec l’Orient et qui partage avec les États-Unis les mêmes préoccupations concernant la sécurité, notamment l’islamisme 3 ». Au lendemain des attentats du 11 septembre 2001, Vladimir Poutine fut le premier chef d’État qui appela le Président américain pour lui témoigner de sa forte solidarité avec le peuple américain, rappelant que la Russie avait elle aussi été victime depuis des années des attaques menées par des terroristes islamistes originaires de Tchétchénie. Lorsque George W. Bush lança sa campagne militaire contre le terrorisme, notamment avec l’intervention en Afghanistan, il chercha l’aide de la Russie, également préoccupée par l’influence du djihadisme international sur le conflit de Tchétchénie. Cette convergence conjoncturelle d’intérêts offrait une opportunité rare aux deux anciens adversaires de la guerre froide pour forger un partenariat stratégique panoccidental. Le 24 septembre 2001, le Président russe annonça un plan en quatre points pour soutenir la guerre américaine contre le terrorisme. Premièrement, le gouvernement russe s’engageait à partager les données de renseignements avec son homologue américain. Deuxièmement, il ouvrait l’espace aérien russe aux vols d’avions américains à destination de l’Afghanistan. Troisièmement, il promettait d’obtenir l’ouverture de l’espace aérien en Asie centrale pour les États-Unis. Quatrièmement, il s’agissait d’apporter une aide militaire et humanitaire à l’Alliance du Nord en Afghanistan qui était en train de combattre les talibans. Le politologue et ex-ambassadeur américain à Moscou (2012-2014), Michael McFaul, constate que même si la Russie n’était pas d’accord avec la doctrine américaine de l’axe du mal, elle partageait avec les États-Unis une vue plus traditionnelle d’utilisation de la force militaire. Rétrospectivement, on constate que la coopération américano-russe proposée initialement par Poutine ne fut pas égalitaire ni mutuellement bénéfique, car l’administration Bush se focalisa sur les questions purement militaires liées à l’Afghanistan dans le cadre d’une vision court-termiste de sa relation avec la Russie. La rupture stratégique des années 2003-2005 Comme l’a noté McFaul, pour évoluer vers une réelle alliance, cette relation stratégique aurait également dû revêtir un contenu intéressant pour le partenaire russe. À titre d’exemple, les États-Unis auraient pu appuyer l’adhésion de la Russie à l’OMC, ce qu’ils refusèrent jusqu’en 2012 ; établir une relation d’alliance plus formelle entre l’Otan et la Russie ; suspendre le boycott d’achat d’armes russes par les membres de l’Otan ; contribuer au rapprochement entre l’UE et la Russie ; continuer à travailler sur la réduction des missiles balistiques ; acheter des armes russes pour les envoyer à l’Alliance du Nord en Afghanistan ; préciser l’attitude américaine sur la Tchétchénie ; ou encore soutenir le développement des institutions plus démocratiques en Russie 4 . Cependant, ainsi que le note le journaliste américain Peter Baker 5 dans son livre consacré à la politique étrangère de George W. Bush, la Maison Blanche manqua largement cette opportunité en raison d’une stratégie incohérente et imprévisible. Au début de son premier mandat, Bush s’était certes fixé comme objectif de garder la Russie dans le camp occidental afin d’éviter un rapprochement avec la Chine, mais vers 2003-2004, la doctrine Bush évolua vers l’engagement (néoconservateur) d’en finir avec la tyrannie et les États voyous (rogue States) partout dans le monde. Concernant la Russie, cette nouvelle approche était déclinée à travers un objectif à terme de changement de régime à Moscou. Or, c’est à ce moment-là, au milieu des années 2000 – qui correspondait aussi à l’intervention anglo-américaine en Irak –, que Vladimir Poutine commença précisément à recentrer son pouvoir, à cesser de se montrer ouvert à une libéralisation appuyée depuis l’extérieur et à considérer de nouveau les États-Unis comme menaçants. Une nouvelle approche, plus confrontationnelle, émergea ainsi entre 2004 (révolution orange), et 2008, lorsque George W. Bush intensifia le soutien américain à l’adhésion de l’Ukraine et de la Géorgie à l’Otan. En bref, par cette provocation, en tout cas ressentie comme telle par Moscou, le Président américain rata complètement une occasion historique. Les relations russo-américaines se dégradèrent rapidement à partir de 2003, après trois années de lune de miel porteuses d’espoir. Apparemment, ces relations demeuraient hantées par l’esprit de la guerre froide, pendant laquelle l’Union soviétique était perçue comme une menace mortelle pour la civilisation occidentale et pour le monde. En 2000, Condoleezza Rice notait ainsi que « les États-Unis ont eu beaucoup de difficultés à s’adapter au monde d’après-la-guerre-froide et à concevoir une nouvelle grande stratégie pour remplacer l’endiguement de la menace soviétique 6 ». La guerre d’Irak (mars 2003) provoqua une réelle rupture stratégique entre la Russie et les États-Unis. Devenu plus européen, en février 2003, Vladimir Poutine se rendit à Berlin et à Paris, capitales qui s’étaient fortement opposées à l’intervention militaire américaine en Irak. L’opposition des deux poids lourds européens à l’approche hégémonique américaine poussa le Président russe à épouser des concepts gaullistes : le monde multipolaire et la lutte contre l’hégémonie, prises de position autant idéologiques que pragmatiques car la guerre d’Irak permit de s’opposer à l’hyperpuissance occidentale en s’alliant à d’autres États occidentaux. Moscou décidait ainsi de mettre en péril sa relation avec les États-Unis dans l’espoir de la compenser par le rapprochement avec l’Union européenne, mais cette dernière ne voulut jamais réellement poursuivre ce rapprochement dès lors qu’il n’était plus souhaité par Washington et par la direction de l’Otan, véritable pilote des orientations stratégiques de l’UE. La guerre d’Irak influença non seulement la relation russo-américaine, mais fit également changer radicalement la vision que Moscou avait de l’ordre international. L’impunité des États-Unis fit croire aux Russes que les plus forts pouvaient faire ce qu’ils voulaient sur la scène internationale. Tout ce qui s’est passé depuis lors, y compris le flirt avec les islamistes pendant le printemps arabe, la politique américaine en Libye et l’action des États-Unis en Syrie, prouve que la dernière superpuissance mène une stratégie excessive 7 . Il est vrai que les chaos irakien, libyen et syrien, consécutifs aux interventions militaires ou diplomatiques américano-occidentales, en ont fait la démonstration. En 2004, le soutien américain à la révolution orange élargit encore un peu plus les divergences entre les deux pays, tandis que le soutien des États-Unis à l’indépendance du Kosovo en 2008 sembla rendre la rupture russo-américaine irréversible. Après l’élargissement de l’Otan à de nombreux pays de l’Est devenus aussi membres de l’Union européenne, l’UE devint de facto une entité atlantiste sous la domination des intérêts américains. On assista à la reconstitution d’un impressionnant potentiel militaire en Pologne, qui se prépare quasi ouvertement depuis la crise ukrainienne à une guerre potentielle contre la Russie. D’autres nouveaux membres de l’Alliance (pays baltes, Bulgarie, Roumanie) se sont placés quant à eux sous le parapluie de l’Alliance qui y a ouvert depuis 2006 des bases aériennes, notamment ; Bezmer et Graf Ignatievo, puis un polygone militaire (Novo Selo). Les patrouilles d’avions militaires de l’Otan survolent désormais très régulièrement l’espace aérien des pays baltes en proximité immédiate des frontières russes, en raison de l’absence d’aviation militaire dans ces pays. Aujourd’hui, on ne peut que constater l’état déplorable des relations entre les deux pays. Dans ce contexte, les critiques américaines concernant l’état de la démocratie en Russie se sont multipliées, mais pas envers des régimes autoritaires islamiques comme le Qatar, l’Arabie saoudite, ou le Pakistan, parrains du djihadisme. Vladimir Poutine n’a jamais accepté le projet américain de déployer en Europe centrale et orientale un système de défense antimissile, au même titre que l’ingérence occidentale en Ukraine. Il a toujours répondu fermement en assurant que si les États-Unis sortent du traité ABM, la Russie sortira du système d’accords de limitation et de maîtrise des armements stratégiques, classiques, voire tactiques (chapitre VIII), et engagera une politique indépendante en matière de dissuasion nucléaire. D’après de nombreux stratèges polonais, baltes ou anglo-saxons, Vladimir Poutine aurait donc comme objectif proche d’envahir, après l’Ukraine, les pays baltes qui abritent d’importantes communautés russophones dans l’intention de contrer, la Grande-Bretagne, les États-Unis et leurs alliés baltes et polonais qui ne cessent de diffuser encore plus sérieusement ce type de scénarios apocalyptiques concernant la menace russe. La Russie, une menace plus grande que le terrorisme islamiste pour les atlantistes... Si l’on en juge par les déclarations officielles de responsables atlantistes, par les mouvements de troupes en direction du nord de l’Europe et de l’Europe orientale et aux moyens et stratégies déployés contre la Russie au détriment du Moyen-Orient et donc de la lutte contre la menace islamiste, tout se passe comme si le péril islamiste préoccupait moins les États-Unis que la Russie, « ennemi principal ». Ainsi, le général Joseph Dunford, chef d’état- major des armées américaines, avait déclaré, lors des auditions au Congrès dans le cadre de sa nomination, citant le cas ukrainien, que la Russie présentait « la plus grave menace à court terme pour la stabilité du monde entier 8 ». La Russie représente la « plus grande menace » pour la sécurité nationale des États-Unis, a confirmé Deborah James, la secrétaire des forces aériennes américaines, qui en conclut que « l’Amérique doit donc augmenter sa présence militaire en Europe ». Dans cette perspective de hiérarchisation de l’ennemi, privilégiant la menace russe sur le péril islamiste, la Pologne est bien évidemment toujours en première ligne. C’est ainsi que Witold Waszczykowski, le ministre polonais des Affaires étrangères (2015-2018), a fait écho à Deborah James en déclarant, lors de la conférence annuelle sur la sécurité Globsec, organisée le 15 avril 2016 à Bratislava (Slovaquie) : « De toute évidence, l’activité de la Russie est une sorte de menace existentielle parce que cette activité peut détruire des pays [...], nous avons aussi des menaces non existentielles comme le terrorisme, comme les grandes vagues de migrants 9 », mises ainsi au second plan. Dans la même logique d’alliance atlantico-islamique pour endiguer l’ennemi russe, Waszczykowski confirmait, à Ankara, le 20 avril 2016, que son pays est très favorable à une intégration rapide de la Turquie dans l’Union européenne et qu’il ne craint pas la suppression des visas pour les citoyens turcs, car la Turquie est « un des meilleurs atouts pour sécuriser le flanc est de l’OTAN face à la Russie ». La Pologne, qui joue comme jadis l’Angleterre le rôle de cheval de Troie des États-Unis dans l’Union, a subi des pressions américaines pour un soutien à la candidature turque (très souhaitée par les milieux anglo-saxons pour rendre l’UE ingouvernable et encore plus hétérogène) en échange d’installation de nouvelles bases américaines en Pologne. Le 2 février 2016, le secrétaire d’État Ashton Carter a clairement confirmé ce retour à la case départ stratégique de la guerre froide, et c’est dans ce contexte qu’est apparu le nouveau concept stratégique de Third Offset Strategy qui pose comme priorité de maintenir une supériorité militaire et technologique sur les Russes et les Chinois sur le long terme, l’idée étant de franchir un nouveau palier stratégique fondé sur le développement de systèmes d’intelligences artificielles, d’armes-robots, de nouveaux systèmes de brouillages des communications ennemies, etc. (voir Robert Work). Comme on l’a vu en Syrie ou même avant en Afghanistan, plutôt que de coopérer face à un ennemi commun islamiste et djihadiste qui menace autant les États-Unis, l’Union européenne que la Russie en tant que sociétés « mécréantes » à conquérir, les Occidentaux et les Russes ont au contraire renforcé leurs rivalités, s’espionnent et analysent leurs armes respectives dans l’optique d’une confrontation ultérieure 10 . Certes, il est vrai que, de son côté, le 31 décembre 2015, Vladimir Poutine a lui-même signé un document officiel sur la « stratégie de sécurité nationale de la Fédération de Russie » dans lequel les États-Unis sont clairement qualifiés de « menace pour la sécurité nationale ». Nous sommes donc revenus à l’époque de la guerre froide, et la stratégie des États-Unis et des pays membres de l’Otan et de l’UE y est pour beaucoup... Si les torts et visions diabolisantes sont partagés, force est de reconnaître que la partie qui a rompu les liens et mis fin au rapprochement est l’Occident. Sur les dossiers afghan et syrien, personne ne peut nier que si les Russes ont systématiquement proposé de coordonner et collaborer étroitement contre l’ennemi islamiste principal dans le cadre d’une vaste coalition panoccidentale ou euro-occidentale, ce sont les États-Unis qui ont toujours refusé pareil dispositif en accusant à chaque fois les Russes de défier l’Occident, de perpétrer un génocide en Tchétchénie, de frapper les « modérés » en Syrie ou de défendre la dictature d’Assad et d’aggraver la situation en Ukraine au lieu de l’améliorer. L’OCS, ou l’alliance « antihégémonique » russo-chinoise redoutée par Brzezinski Face aux puissances occidentales universalistes que sont l’Amérique et l’Europe de l’Ouest, la Russie postsoviétique et la Chine partagent la même philosophie des relations internationales fondées sur la souveraineté des États, la préservation de leurs zones d’influence respectives, ainsi que le refus de la théorie occidentale du droit d’ingérence humanitaire et de la démocratie libérale et moralisatrice à visée mondialiste. Les politiques de sanction (Irak, Serbie, Russie, Iran, Cuba, Corée du Nord, etc.), aussi contre-productives que souvent injustifiées, n’auront fait que conforter Moscou dans l’idée que l’Occident ne lui laisse d’autre choix que de se rapprocher de Pékin. On assiste ainsi, depuis le début des années 2000, à une convergence de plus en plus profonde des visions diplomatiques des deux grandes puissances créatrices de l’Organisation de coopération de Shanghai (OCS), dont sont membres aussi l’Ouzbékistan, l’Inde, le Pakistan, le Kirghizistan, le Tadjikistan, et probablement bientôt l’Iran (voir carte n o 3). Certes, l’OCS est composée, comme les Brics (Brésil, Russie, Inde, Chine, Afrique du Sud), d’États parfois ennemis entre eux (l’Inde et la Chine), mais outre que la Chine et la Russie, son noyau dur, sont des alliées stratégiques face à l’Otan et aux États-Unis, elle représente tout de même un ensemble multipolaire qui dispose de 38 % des ressources mondiales de gaz, de 20 % de celles en gaz, de 40 % du charbon, de 30 % de l’uranium de la planète et des deux armées les plus puissantes après les États-Unis, de surcroît nucléaires. De fait, face à l’unipolarité américaine, la Russie et la Chine défendent l’avènement d’un monde multipolaire, afin de contrer l’encerclement de leurs terres et mers par l’Otan, l’UE, les forces anglo-américaines et leurs alliés en Asie. Il est vrai que Moscou avait averti, dans les années 1990-2005, que toute tentative de faire basculer dans le camp de l’Otan l’Ukraine et la Géorgie (« plan Brzezinski », voir supra) serait un casus belli. On a d’ailleurs vu, entre 2003 et 2013, les conséquences dramatiques – pourtant prévisibles – de la politique des États-Unis, de l’Otan et de l’Union européenne de soutien aux dirigeants antirusses dans « l’étranger proche » de Moscou 11 . À la fin de sa vie, le concepteur même de la doctrine de l’endiguement de l’URSS, George Kennan 12 , déplorait l’obsession antirusse de l’Otan et des États-Unis, qui persistaient à traiter la Russie postsoviétique comme l’URSS en accentuant l’encerclement et les sanctions contre Moscou : « Étendre l’Otan vers l’est serait la pire erreur de la politique américaine de l’ère post-guerre froide... Les Russes vont réagir progressivement de manière particulièrement hostile et cela changera leur politique [...]. Cette expansion (de l’Otan) ferait se retourner les Pères fondateurs de notre pays dans leur tombe. » Les stratèges de Washington devront finir par comprendre que leur attitude vis-à-vis de Moscou et de Pékin a plus de chances d’accélérer, par réaction antihégémonique, la fin de l’unipolarité étatsunienne que de la prolonger, et que cela ne peut que renforcer l’avènement d’un nouveau désordre multipolaire tourné contre l’Amérique. Ce mouvement renforcera non seulement les liens entre la Chine, la Russie, l’Iran et l’Inde, mais il attirera aussi contre lui des pays du monde musulman et des acteurs souverainistes pas forcément antioccidentaux, pour qui l’hégémonie américaine est rédhibitoire, donnant ainsi corps à l’alliance antihégémonique que redoutait tant Zbigniew Brzezinski dans Le Grand Échiquier. Quant à la Chine, elle ne peut plus tolérer de se laisser enfermer par les Américains et leurs alliés dans les eaux du détroit de Formose, alors que le contrôle de ses places maritimes ou leur accès sont la condition sine qua non de son statut de puissance mondiale. D’où l’accroissement subit de ses forces navales, certes, très en deçà de celles de Washington, mais en plein développement. 1. « Ukraine : de nouvelles tensions entre la Russie, l’Otan et les États-Unis », LCI, 13 avril 2021. 2. Vyacheslav Nikonov, « La Russie et l’Occident : des illusions au désenchantement », Critique internationale, n o 12, p. 175-191. 3. Peggy Noonan, « A Chat in the Oval Office », The Wall Street Journal, 2 juin 2001. 4. Angela Stent et Lilia Shevtsova, « America, Russia and Europe: a Realignment? », ResearchGate, vol. 44, n o 4, p. 121-134. 5. Peter Baker, Days of Fire. Bush and Cheney in the White House, Washington, Anchor, 2013. 6. Condoleezza Rice, « Campaign 2000: Promoting the National Interest », Foreign Affairs, janvier 2000. 7. Fyodor Lukyanov, « What Russia Learned from the Iraq War », Al-Monitor, 18 mars 2013. 8. Laurent Lagneau, « Pour la Pologne, la Russie est plus menaçante que l’État islamique », Opex360, 16 avril 2016. 9. Voir http://lesmoutonsenrages.fr/2016/04/16/gros-danger-annonce-par-nos-medias-la-russie-est-une-menace-plus-serieuse-que- lei/#vLaxL0ch4ieC1LRV.99. 10. À titre d’exemple, en Syrie, un déserteur de l’armée syrienne et porte-parole des Forces démocratiques syriennes (FDS), Talal Silo, a révélé comment les États-Unis ont interdit au groupe FDS et donc aux combattants kurdes toute collaboration ou entraînement avec les Russes en Syrie. 11. Voir Alexandre Del Valle, Les Vrais Ennemis de l’Occident. Du rejet de la Russie à l’islamisation des sociétés ouvertes, Paris, L’Artilleur, 2016. 12. Thomas Friedman, éditorialiste du New York Times, relata son entretien avec George Kennan, en 1999, soit un an avant l’arrivée de Vladimir Poutine au Kremlin, à propos de l’expansion de l’Otan en Europe. CHAPITRE V ... ou désordre mondial multipolaire ? « L’affrontement de tête entre Washington et Pékin, qui structure la nouvelle donne stratégique planétaire, va bon train sur le front commercial, mais aussi sur tous les autres terrains (militaire, sécuritaire, diplomatique, normatif, politique, numérique, spatial, etc.). La planète entière est devenue le terrain de jeu de ce pugilat géant [...] : l’Europe bien sûr, l’Eurasie, mais aussi l’Afrique [...], l’Amérique latine, la zone indopacifique [...] et naturellement le Moyen-Orient. » Caroline Galacteros Depuis les années 2000 et la remise en question sino-russe de l’unipolarisme américano-atlantiste (OCS, voir cartes n os 2 et 3) le monde vit une transition historique vers la multipolarité. Celle-ci est caractérisée non seulement par le retour de la Realpolitik, des souverainismes identitaires, des empires civilisationnels régionaux, mais aussi par un processus global de désoccidentalisation de la mondialisation, redevenue un phénomène neutre découplé de son idéologisation mondialiste. Le nouveau monde multipolaire qui vient, apparemment désordonné, sera composé d’espaces ou « zones géocivilisationnelles » en compétition constante et à géométrie variable. Désordre non pas en vue du pire, qui n’est jamais certain, mais parce que les règles de fonctionnement de ce nouveau monde en gestation n’ont pas encore été fixées. Pour l’heure, ce qui est certain, c’est que la mondialisation n’est plus maîtrisée par l’Occident et devient surtout un champ de rivalités géostratégiques et d’hypercompétition économique de plus en plus agressives accentuées par la crise économique mondiale et la crise sanitaire. En 1987, Paul Kennedy avait expliqué, comme Duroselle, que « toute superpuissance à la recherche d’une domination globale finira par la perdre ». Un constat également émis, on l’a vu, par Graham Allison avec son « piège de Thucydide ». La raison majeure est l’attribution ruineuse de ressources économiques et financières à un pouvoir militaire contre-productif. Il est vrai que les interventions américaines de l’après-guerre froide ont coûté des milliers de milliards de dollars. Depuis 2001, la « guerre contre le terrorisme » (war on terror) en Afghanistan aurait coûté à elle seule 850 milliards de dollars de 2001 à 2017 (sans résultats), et celle en Irak (1990-2003) près de 2 000 milliards. Dans le même temps, maintes infrastructures sont restées en retard aux États-Unis (trains et lignes électriques ou téléphoniques non enterrées) et les jeunes endettés pour leurs études ainsi que les pauvres incapables de payer des soins corrects se révoltent car tout cet argent aurait pu contribuer à rendre leur vie moins rude. Si l’Amérique veut continuer à jouer un rôle majeur en faveur de la stabilité et retrouver son pouvoir de séduction, largement perdu à cause de son arrogance, pour paraphraser Huntington, elle devra accepter la constitution de sphères d’influence régionales souveraines autour de la Chine, de la Russie, de l’Inde, de la Turquie, du Brésil, de l’Égypte, de l’Afrique du Sud, notamment, ce qui ne l’empêchera pas de protéger ses propres zones d’influence en Amérique du Nord et du Sud, et de maintenir des liens étroits avec l’Europe. Sa politique étrangère devra renoncer à l’impérialisme de ses juridictions extraterritoriales et devra se recentrer sur la promotion d’un équilibre global du pouvoir, ce qui signifie l’abandon des politiques contre-productives de regime change. Mais rien n’indique que cette tendance, paradoxalement bien plus incarnée par les électeurs de Donald Trump que par ceux des démocrates, prisonniers de leur moralisme interventionniste, l’emportera. Fractures internes et externes D’une manière générale, on constate à l’échelle des États-Unis, qui ont été au bord de la guerre civile autour de la présidence Trump et du mouvement des Black Lives Matter, ainsi qu’à l’échelle mondiale, une détérioration globale du statu quo, un déclin progressif des structures établies depuis 1945 : intensification des rivalités entre grandes puissances ; montée du nationalisme, des intégrismes et des populismes face au néo-impérialisme moraliste des élites occidentales mondialisées ; migrations incontrôlées ; tentations de « démondialisation » ; explosion des inégalités ; questions sanitaires et environnementales. Dans le même temps, les Nations unies ne parviennent pas à se renouveler : le Conseil de sécurité permanent est toujours composé des mêmes cinq grands vainqueurs de la Seconde Guerre mondiale et refuse de partager ce club de happy few avec de nouveaux grands acteurs, comme l’Inde ou le Brésil. On peut donc s’attendre dans les années à venir à un discrédit croissant du multilatéralisme cher aux adeptes de l’école idéaliste des relations internationales, et à un retour en grâce de la Realpolitik, et du souverainisme, déjà en action dans la quasi-totalité du monde non occidental, c’est-à-dire hors l’aire euro-américaine industrialisée-atlantiste. La période de transition géostratégique qui, après la fin du monde bipolaire (1990), a vu le triomphe éphémère de l’unipolarité américaine et qui évolue progressivement vers un multipolarisme pourrait être appelée « nouveau désordre mondial » ou « marche vers un multilatéralisme asymétrique 1 ». Le monde n’appartiendra plus à personne... Comme l’écrit Charles Kupchan, dans La Fin de l’ère américaine 2 , le monde qui vient n’appartiendra à personne, car il sera à la fois multipolaire, politiquement pluriel et fera cohabiter une hyperpuissance américaine lassée de son fardeau de l’hégémonie mondiale et les acteurs émergents et réémergents d’un monde polycentrique. Certes, la montée de la Chine pourrait déboucher sur un duopole sino-américain ou une néoguerre froide entre les deux rivaux dans une sorte de bipolarité, mais le monde ne redeviendra pas bipolaire pour autant car la Chine s’accommode du polycentrisme et n’a de prétention hégémonique (mais non prosélyte comme l’Occident) que dans sa zone d’influence asiatique. Contrairement à l’URSS, elle ne cherche nullement à répandre son modèle politique communiste ou civilisationnel sino-confucéen aux autres pôles. Pour Kupchan, l’internationalisme libéral qui a porté la politique américaine tout au long de la guerre froide s’essouffle. Les États-Unis, après plusieurs stratégies successives (containment, roll back, détente, puis unilatéralisme) pendant la guerre froide et durant la décennie et demie qui a suivi, n’ont plus de Grand Strategy (Luttwak) aujourd’hui, après avoir triomphé du communisme. Le « moment unipolaire » des États-Unis est donc terminé et la transition, inexorable. Depuis quelques années, aux États-Unis, un courant de pensée a d’ailleurs émergé parmi les universitaires américains selon lequel l’Amérique devrait accepter les sphères d’influence respectives des nouveaux acteurs, c’est-à-dire un partage de la puissance mondiale avec d’autres grandes puissances, avec une référence particulière à la Chine, à l’Inde et à la Russie. Le nombre de grandes puissances va être plus élevé qu’il ne l’a jamais été par le passé : on trouve tout d’abord le « club des sept empires » (Giannulli), à savoir les États-Unis, l’Union européenne, le Japon, le Brésil, la Russie, l’Inde et la Chine, qui représentent à eux seuls plus de 50 % de la population mondiale et 75 % du produit intérieur brut (PIB) mondial, puis viennent dans un second cercle de puissances de moindre poids l’Afrique du Sud, la Colombie, l’Indonésie, l’Égypte, l’Iran, la Turquie, chacune de ces puissances évoluant dans leur « étranger proche » sur la base de leurs propres valeurs et intérêts, portant ainsi une vision spécifique. La Chine, deuxième puissance du monde, va continuer de tout faire, dans tous les domaines, pour dépasser les États-Unis, même si cela va s’avérer long et plus difficile dans le domaine militaire et celui du soft power culturel mondial. La politique étrangère et de défense des États-Unis va se concentrer de ce fait sur l’impératif de contrer non seulement la Chine, mais aussi les « alliances antihégémoniques » (Brzezinski) susceptibles de gêner sa domination stratégique mondiale, comme l’Organisation de coopération de Shanghai (OCS). Washington craint également le rapprochement Iran-Chine qui s’est traduit par la signature, en mars 2021, d’un accord commercial de 400 milliards de dollars pour une période de vingt-cinq ans entre les deux pays. Cet accord stratégique surnommé Lion-Dragon Deal s’est également matérialisé par des ventes d’armes et des manœuvres navales communes aux côtés de la Russie. Cette nouvelle proximité sino-iranienne rebat les cartes au Moyen-Orient, en passe de devenir un nouveau terrain de confrontation entre la Chine et les Occidentaux. Le duel sino-américain va donc de plus en plus prendre la forme d’une confrontation ouverte, mais les interdépendances économiques entre eux vont probablement empêcher que se reproduise un scénario identique à celui de la guerre froide. L’objectif immédiat des États-Unis sera de freiner au maximum les efforts de la Chine pour prendre l’avantage dans plusieurs domaines, ceci au moyen d’une guerre commerciale, monétaire, technologique (guerre de la 5G, voir infra) et stratégique (forces militaires, Quad [Quadrilateral Security Dialogue] voir carte n o 3), mais aussi en contrant le projet chinois d’établir une position hégémonique en Asie. Cette bataille se déroule d’ailleurs déjà en mer de Chine, autour de Taiwan et de la Corée du Sud, des Paracels/Spratleys et autres îles (Senkaku, etc., voir chapitre XII). Les Chinois, eux, vont donc tout faire pour éloigner les États-Unis de la zone (d’où la reprise en main de Hong Kong, les menaces sur Taiwan et la stratégie du « collier de perles »). La stratégie du collier de perles Cette expression désigne l’installation, par la marine de guerre chinoise, de points d’appui (les « perles ») tout le long de sa voie d’approvisionnement maritime vers le Moyen-Orient. Cela inclut la construction, l’achat ou la location, sur le long terme, d’installations portuaires et aériennes (échelonnées jusqu’en Afrique), destinées à protéger ses intérêts commerciaux d’est en ouest : de la mer de Chine méridionale au golfe de Bengale, à la mer d’Arabie et la mer Rouge. Sans surprise, l’Inde rivale y voit un encerclement, notamment à partir des ports au Pakistan, grand allié de la Chine, au Sri Lanka, au Bangladesh, ou encore au Myanmar et aux Seychelles, pays « retournés » ou acquis ces dernières années à Pékin. Il s’agit en fait d’une chaîne de bases militaires chinoises et de ports étrangers dans lesquels la marine militaire chinoise a acquis des installations portuaires dans le cadre de projets d’infrastructures financées par Pékin 3 . L’idée est d’étendre son contrôle sur toute la mer de Chine méridionale et orientale, 80 % des importations énergétiques chinoises y transitant. Pékin rachète dans ce même contexte des ports, en Corée du Nord, au Cambodge (voir infra) et convoite même un port en Islande pour réduire les trajets de Shanghai à Hambourg de six mille quatre cents kilomètres durant l’été ; sans oublier le golfe d’Aden-Djibouti, et alentour, pour escorter ses navires à travers cette zone infestée de pirates. Outsiders, émergents, Brics, acteurs de la désoccidentalisation du monde Depuis le retour politique des non-alignés, l’émergence de l’OCS et des Brics (voir cartes n os 2 et 3), la montée en puissance de l’Indonésie, de la Corée du Sud, de la Malaisie, de la Turquie et d’autres pays émergents, l’économie mondiale multipolaire a évolué si rapidement que certains pays en développement se sont mués en puissances géoéconomiques. La catégorie générique de tiers-monde apparaît désormais désuète, du moins sur le plan économique. Si l’Europe et les États-Unis semblent menacés par la désagrégation économique et l’apparition de nouvelles frontières intérieures, d’autres zones sont en passe d’apparaître sous l’impulsion d’échanges commerciaux, financiers et humains intensifiés entre les États qui les constituent. D’après le Fonds monétaire international (FMI), les BRICS (Brésil, Russie, Inde, Chine, Afrique du Sud, acronyme créé par Goldman Sachs en 2001) comptent 40 % de la population mondiale et assureraient 50 % de la croissance mondiale. Leur place dans l’économie mondiale croît fortement : 16 % du PIB mondial en 2001, 27 % en 2015 et, d’après des estimations, 40 % en 2025. Ils affichent un PIB nominal équivalent à celui des 27 de l’UE réunis. Forts de ce constat, certains prospectivistes de Goldman Sach évoquent l’apparition possible d’un « E7 », sigle d’un « G7 à l’envers », qui regrouperait 7 puissances mondiales émergentes (Chine, Inde, Brésil, Russie, Mexique, Indonésie, Turquie). La crise économique et financière a par ailleurs accentué le phénomène de rééquilibrage économique et géopolitique mondial en faveur d’une participation plus importante des pays non occidentaux aux affaires du monde : la part de l’Asie dans l’économie mondiale est passée de 7 % en 1980 à 30 % en 2020, tandis que les marchés d’Asie représentent aujourd’hui 34 % de la capitalisation boursière mondiale (devant les États-Unis, 29 %, et l’Europe 24 %). La part du monde en développement dans le PIB mondial en termes de parité de pouvoir d’achat est passée de 33,7 % en 1980 à 45 % en 2019. Le Brésil, la Russie, l’Inde, la Chine et l’Afrique du Sud forment au total un ensemble humain de plus de 3 milliards d’habitants, soit 40 % de l’humanité, et ils ont une surface de presque 40 millions de km². Ils pourraient être bientôt rejoints par la Turquie, l’Indonésie, la Colombie, le Chili ou le Mexique (BRIICCTMS). Lors du sommet de Brasilia du 15 avril 2010, les 4 principaux pays-continents des Bric (alors dénommés ainsi) ont pour la première fois remis en cause l’ordre économique et financier mondial hérité des accords de Breton Woods, appelant à la réforme de la Banque mondiale et du FMI. Le 15 juillet 2014, à l’occasion de leur sixième sommet annuel à Fortaleza, au Brésil, les Brics (alors déjà augmentés du s de South Africa) ont signé un accord créant une banque de développement (NBD) et une réserve de change commune 4 dont les fonds de dotations ont « financé trente-cinq projets d’investissements d’une valeur supérieure à 9 milliards de dollars 5 ». Plus gênant pour l’imperium américain : ces puissances remettent en cause la suprématie planétaire du dollar, appelant à constituer un système financier international alternatif au nom de leur droit d’utiliser comme bon leur semble leurs monnaies nationales pour l’énergie et d’autres transactions. Cette idée séduit bien sûr au premier chef Russes et Chinois, qui échangent déjà leurs hydrocarbures en yuans, mais aussi l’Inde et nombre de pays africains. Quant à la Turquie, elle a signé un accord avec la Russie pour échanger également hors du dollar, ce que la Chine fait déjà avec les pays africains qui ont abandonné eux-mêmes le franc CFA. La désoccidentalisation est en marche... En juin 2019, dans le cadre d’un sommet des Brics, en marge du G20, au Japon, à Osaka, Vladimir Poutine a appelé les émergents à stabiliser les cours de leurs devises nationales en échangeant le plus possible avec elles au lieu du dollar. Et la Banque centrale russe a suggéré, en décembre 2017, de créer une monnaie virtuelle commune à la fois aux Brics et aux États de l’Union économique eurasienne 6 . En 2018, lorsque la direction de Society for Worldwide Interbank Financial Telecommunication (Swift), sous pression américaine, a déconnecté de son système la Banque centrale d’Iran et d’autres organismes financiers iraniens visés par les sanctions américaines liées aux lois extraterritoriales, l’Inde, la Russie et la Chine ont décidé de se débarrasser à terme de la dépendance envers Swift en reliant le système de messagerie financière (PSSA) au système chinois de paiements internationaux (CIPS) et au projet d’une structure indienne indépendante 7 . D’autres puissances régionales majeures, comme l’Iran, ont également un très fort potentiel et même des velléités néo-impériales. L’Iran a considérablement augmenté sa profondeur stratégique au Moyen et Proche-Orient depuis les années 1980, mais également dans d’autres zones du monde, comme l’Amérique latine, l’Asie centrale et la Turquie. Il est un membre observateur de l’OCS, il renforce sa coopération avec l’axe Chine-Russie et les Brics, et seules la politique de sanctions drastiques lancées par les États-Unis et la nature cleptocratique et totalitaire islamiste du régime ont empêché ce grand pays de poursuivre sa croissance économique, géopolitique et technologique déjà visible à l’époque du shah, mais que les rivaux de Téhéran, Arabie saoudite en tête, craignent par-dessus tout. Puissance nucléaire potentielle, la Turquie postkémaliste et national-islamiste est quant à elle déjà la première puissance du Moyen-Orient, devant l’Iran et l’Arabie saoudite, et même la treizième puissance mondiale depuis 2018. Non seulement elle revendique son entrée dans le club nucléaire et abrite des ogives nucléaires américaines sur son sol, mais elle se dote, grâce à son partenariat avec Moscou, de centrales nucléaires et diversifie ses capacités militaires, comme on le voit dans le rapprochement avec l’OCS et l’achat du système de missiles S400 russes qui permet à Ankara de devenir stratégiquement plus autonome vis-à-vis de l’Alliance atlantique. Enfin, pour reprendre la dichotomie « ventres durs/ventres mous » du monde, chère à Pierre Marie Gallois, le pôle africain, avec ses 150 millions d’habitants en 1930 devenus 2 milliards dans trente ans, ne participe qu’à hauteur de 3 % aux échanges mondiaux et reste englué dans les cercles vicieux de la surnatalité, du clanisme, de la corruption endémique, de la mauvaise gouvernance, de l’analphabétisme et des guerres et tensions ethnoreligieuses et tribales dans des États postcoloniaux dont les frontières ont été fort mal découpées. Le rêve de Chinafrique ou même Chindiafrique demeure hélas un doux mythe : le décrochage des pays du Sahel est stupéfiant, cumulant problématiques de sous-développement, de réchauffement climatique, de séparatisme et de terrorisme islamiste, et il s’agit là de la seule région au monde où la pauvreté a continué de progresser... L’Afrique demeure globalement une source de convoitises pour les matières premières et les terres agraires au profit des multinationales, pas seulement occidentales, d’ailleurs, et des acteurs du monde polycentrique, Chine, Inde, États-Unis, France, Turquie, et même Russie. Inexorable montée en puissance de l’hégémon chinois En 1980, le produit intérieur brut (PIB) chinois équivalait à 7 % du PIB américain, contre 61 % en 2015, et sera bientôt équivalent. Une tendance quasi certaine : le FMI prévoit pour la Chine une croissance d’au moins 8 % en 2022, quand l’Europe peinera à sortir de la crise la plus catastrophique depuis 1929. Rappelons tout de même que la Chine, devenue l’usine du monde avec la complicité des oligarchies économiques occidentales, a désormais plus de travailleurs dans l’industrie que tous les pays de l’OCDE réunis 8 . Pékin a par ailleurs acheté 1 200 milliards de dollars de bons du Trésor américain indispensables au budget des États-Unis, et acquiert des actifs financiers et physiques partout dans le monde. Longtemps considérée comme un simple pays d’accueil, la Chine est désormais exportatrice nette d’IDE 9 : les flux sortants sont ainsi passés de 7 à 200 milliards de dollars entre 2001 et 2018. Dans une logique de guerre économique et financière, la Chine refuse de remettre en cause le taux de change de sa monnaie et elle exige d’entrer dans le club des « Économies de marché » pour s’affranchir de toute contrainte à l’exportation, tout en pillant allègrement les technologies de ses partenaires et en pratiquant en « non-retour » une forme de protectionnisme et de concurrence déloyale fondée sur le dumping social et le non-respect des critères de l’OMC et de l’OIT... Outre l’OCS et les Brics, évoqués plus haut, les instruments de ce processus de montée en puissance chinoise sont tout d’abord la Belt and Road Initiative (BRI), littéralement « ceinture et route », appelée dans la presse « nouvelles routes de la soie ». Il s’agit d’un gigantesque plan de construction de réseaux d’infrastructures terrestres, maritimes, énergétiques et communicationnels, véritable pilier de la mondialisation chinoise déployé sur 6 corridors d’Eurasie. Qualifiée de plus grand projet d’investissements depuis le plan Marshall, la BRI répond à la quête géopolitique de « Rêve chinois global 10 » lancé en 2013 par Xi Jinping lorsqu’il est arrivé au pouvoir. Visant à accroître la place de la Chine au niveau international 11 , les « nouvelles routes de la soie » englobent 65 pays asiatiques et européens, représentant près de 55 % du PIB, 70 % de la population et 75 % des réserves énergétiques du monde, pour une durée d’investissement de trente-cinq ans... Le coût estimé des premiers projets est de 900 milliards de dollars et les prêts associés, alloués par la Chine pour les infrastructures à venir dans les différents pays traversés, atteignent 8 trillions de dollars ! Patriots vs McWorldists ? À la lumière des fractures internes de plus en plus problématiques dans les pays occidentaux, prisonniers de systèmes court-termistes (en Europe populiste vs sociaux-démocrates et aux États-Unis trumpistes Patriots vs démocrates « multiculturalistes »), qui ont failli, durant l’été 2020 et en janvier 2021, conduire les États-Unis à la guerre civile, la Chine et d’autres puissances considèrent que des élections libres et équitables ne peuvent plus garantir un gouvernement efficace et que l’idéologie libérale-libertaire McWorld est foncièrement subversive et anarchiste. Pékin considère le « scénario Mad Max » qui prédestine les démocraties libérales occidentales au chaos comme une opportunité historique pour remplir le vide. Le pouvoir chinois compte ainsi démontrer que, dans le monde complexe du XXI e siècle, la paix et la prospérité sont mieux servies lorsque des gouvernements centraux forts affrontent les défis mondiaux... Comme dans les années 1930, la démocratie occidentale n’est plus le seul modèle, et sur ce point, Samuel Huntington, dans la conclusion de son Choc des civilisations, ne s’est pas trompé en annonçant la fin du pouvoir d’attraction de l’Occident. « L’hégémonie mondiale américaine ne fonctionnera plus, écrit Robert W. Merry, l’exceptionnalisme américain est une vanité nationale ridiculisée par les événements [...] nos idéaux sont bons pour nous et valent la peine de se battre pour eux, mais ils ne sont pas universels et ne devraient pas être imposés à d’autres peuples dans d’autres pays 12 . » Cette remarque peut être désagréable pour les oreilles des missionnaires pandémocratiques d’Occident, mais cette musique est en vogue dans le nouveau monde multipolaire, c’est-à-dire dans près de 90 % de l’Humanité, si l’on reprend le chiffre de Samuel Huntington qui évaluait le poids mondial des « élites blanches mondialisées » (ou « club de Davos ») à 12 % de l’Humanité... Contrairement aux expectatives occidentalistes de Fukuyama, et à la différence de la Russie postsoviétique de Boris Eltsine, la Chine ne s’est pas du tout démocratisée et libéralisée sur le plan politique, et ne s’est ouverte qu’à son avantage, sur le plan économique et commercial. Elle développe ainsi un ordre mondial alternatif régi par la Realpolitik, fondé sur la dictature absolue du parti léniniste-maoïste combinée à un néoconfucianisme et à un capitalisme mercantiliste de conquête. Étrange mélange, certes, presque incompréhensible pour un Occidental cartésien, mais alliage fort opportun et efficace pour un confucéen-taoïste habitué à mélanger les contraires (« yin et yang »)... Pour le pouvoir de Pékin, la mondialisation constitue de ce fait une formidable opportunité pour consolider son hégémonie, son nationalisme impérial, et non pour fonder une suprasociété mondiale prosélyte, comme l’entend l’Occident. Ce projet est perçu comme utopique, contre-productif et menaçant. Dans le court terme, la Chine, qui a besoin de vendre ses produits au monde entier et donc aux États-Unis, ne veut surtout pas d’une confrontation directe, et concéderait même à Washington, dans une logique pragmatique, une ouverture politique et économique en échange de l’endiguement de la marine américaine en mer de Chine. Son but premier est d’acquérir la puissance mondiale nécessaire pour gagner une guerre sans avoir à la livrer, à la lumière de Sun Tzu ou du jeu de go. Et cette puissance a déjà été en partie acquise par l’instrumentalisation de la mondialisation... D’évidence, le nouveau (dés)ordre mondial ne s’annonce pas libéral : la plupart des acteurs de ce monde en voie de multipolarisation rejettent les valeurs libérales-libertaires et démocratiques promues par les démocrates américains et les sociaux-démocrates européens. « Au grand dam de l’Occident, écrit Caroline Galacteros, Pékin propose une synthèse efficace et séduisante pour bien des pays. C’est du dirigisme, c’est une pratique autoritaire du pouvoir, c’est une restriction manifeste des “droits de l’homme”. Mais au lieu de crier à la dictature, nous ferions mieux d’observer cette synthèse très attentivement et d’analyser sa force d’attraction 13 . » Un appel au réalisme. L’Europe : « impuissance volontaire » et dindon de la farce de la mondialisation ? À l’inverse, la puissance européenne semble être dupe de la mondialisation, idéologiquement assimilée au « mondialisme », avec la difficulté qui en découle de défendre le principe de souveraineté, qu’il soit national ou supranational, délégitimé en lui-même par McWorld et Bruxelles. Certes, le PIB global des vingt-sept pays européens représente 25 % de la richesse mondiale. Globalement, l’UE est un partenaire économique majeur pour l’ensemble du monde. Son secteur secondaire n’a pas totalement disparu, même si les délocalisations ont porté un coup fatal à des pans entiers de l’économie. Par la plupart des critères de puissance – taille du marché, monnaie unique, main-d’œuvre hautement qualifiée, gouvernements démocratiques stables et bloc commercial unifié – de ses pays membres, l’Union pourrait acquérir un poids sur la scène internationale, mais le vieillissement de sa population et la diminution de la main-d’œuvre dans la plupart des pays auront un impact négatif durable sur un continent désindustrialisé qui risque de se paupériser progressivement et de « sortir de l’Histoire » 14 . Certes, sa présence industrielle est encore forte dans des domaines sensibles, comme la chimie, certaines industries lourdes, l’ingénierie industrielle, les énergies alternatives, en plus de l’automobile et des machines-outils, et elle demeure, au niveau des échanges intracommunautaires, le leader du commerce international. Mais pas forcément pour longtemps. Car le déséquilibre avec les pays émergents à bas coût de main-d’œuvre et/ou à monnaie sous-évaluée s’accentuant, l’UE doit se protéger contre la concurrence déloyale en matière de commerce international et se détacher de l’angélisme en mettant en place une réciprocité dans le domaine des marchés publics. L’UE serait bien inspirée, pour ne plus être le dindon de la farce, d’instaurer l’équivalent du Buy American Act américain, qui contraint d’affecter les fonds publics américains à des entreprises américaines. Un tel Buy European Act aurait par exemple permis d’interdire à la Pologne d’acheter des avions militaires américains plutôt qu’européens, et éviterait les achats trop fréquents de matériels américains par les États européens membres de l’Otan. L’Europe, prisonnière de son propre mythe universaliste, qui s’affiche comme le continent de la non-identité, des droits de l’homme, de la social-démocratie, a comme pire ennemi sa propre volonté d’impuissance et sa mauvaise conscience, en plus de sa démographie déclinante. En fait, si tant est qu’elle devienne un jour un acteur géopolitique, elle est le seul qui a renoncé à afficher une identité, à définir des frontières, et a renoncé à la volonté de puissance. Un objet « géopolitique non identifié » et postcivilisationnel La grande majorité des pays de l’Union européenne dépensant entre 1 et 2 % de leur PIB dans le domaine militaire, le budget européen de la défense équivaudrait théoriquement à 290 milliards de dollars, ce qui en ferait potentiellement le deuxième budget mondial derrière les États-Unis (732 milliards de dollars), et devant la Chine (178 milliards). Mais cela n’est qu’une projection car, en réalité, l’UE n’a ni stratégie, ni défense et armée propres, ni même une politique étrangère unie, mais 27 intérêts nationaux souvent divergents... Le véritable ordre de placement situe la Chine juste derrière les États-Unis, bien devant sa concurrente, l’Inde (71 milliards), puis la Russie (65,1), l’Arabie saoudite (61,9) et la France (51). Outre les empires étatsunien, turco-islamique et chinois, qui la prennent en tenailles et convoitent ses richesses et son patrimoine uniques, l’Europe, démographiquement déclinante et psychologiquement complexée, est la seule civilisation au monde qui a remplacé toute appartenance identitaire par des valeurs humanitaires, démocratiques et libérales-libertaires. Celles-ci sont d’ailleurs vues comme des antivaleurs postidentitaires par les autres civilisations et nations, même démocratiques, comme le Japon, l’Inde, etc., qui demeurent patriotes et qui assument fièrement des politiques de puissance 15 et de civilisation. Le fait que l’UE, protégée par l’Otan, donc vassale des États-Unis, amoindrisse progressivement les souverainetés nationales de ses pays membres depuis les années 1990 16 la place en situation d’apesanteur stratégique. Loin de prendre le chemin de devenir un acteur géostratégique, alors qu’elle le pourrait si une unité de vue et une volonté existaient entre États membres, elle demeure en fait un no man’s land géopolitique. Pour les acteurs du reste du monde, Chine, États-Unis, Russie, Turquie, elle apparaît selon les uns comme un objet de dérision – Kissinger demandait d’ailleurs : « Europe, quel numéro de téléphone » ? – et selon les autres comme une belle proie affaiblie donc à convoiter... L’Union européenne est aujourd’hui une organisation hybride : un Ogni, un objet géopolitique non identifié : elle n’est ni un État, ni une fédération, ni même une confédération, mais une organisation internationale très divisée et hétérogène, unie en apparence seulement par une idéologie sociale-démocrate universaliste et une économie de marché, qui s’applique à elle-même des règles de limitation des souverainetés, de répression des identités nationales, d’ingénuité géoéconomique, de strict respect de la concurrence, de protection des travailleurs et de l’environnement ou de multiculturalisme, que les autres acteurs du monde ne s’appliquent pas à eux-mêmes, mais exigent opportunément d’elle, dans l’intention de la conquérir. Bref, elle agit de façon objective en dindon de la farce d’une mondialisation que tous les autres acteurs conçoivent comme un immense champ de concurrence et de ce fait comme un levier d’extension de leurs propres puissances et non comme un partage de souverainetés ou un projet de « village global »... Ce constat confirme l’observation que nous faisait partager dans les années 1990-2000 Pierre Marie Gallois, qui craignait que le continent ouest-européen devienne celui de l’impuissance et de la désouverainisation car l’Europe ne peut pas, pour des raisons historiques et idéologiques, acquérir au niveau supranational la souveraineté qu’elle fait perdre aux États membres au niveau national. Rejet de l’occidentalisation et de la domination américaine Les nouveaux dispositifs géopolitiques mis en œuvre depuis la fin de la guerre froide par les partisans d’un nouvel ordre international polycentrique, émancipés de l’hégémonie de l’Occident et des États-Unis, donc en quête de « désoccidentalisation », appartiennent à deux grands groupes : premièrement, les groupes d’États qui s’opposent à l’Occident, combattent ses valeurs et sa civilisation ; deuxièmement, ceux qui ne sont pas forcément antioccidentaux mais qui veulent un monde multipolaire fondé sur le respect de la souveraineté des États maîtres de leurs zones d’action géopolitique, économique et stratégique respectives. Comme l’explique le sociologue suisse Jean Ziegler, « la haine de l’Occident, cette passion irréductible, habite aujourd’hui la grande majorité des peuples du Sud. Elle agit comme une force mobilisatrice puissante ». D’après cette représentation, la simple évocation récurrente des droits de l’homme par des pays occidentaux pour justifier des sanctions internationales contre des dictatures du tiers-monde ou des pays accusés de massacrer des minorités ou de poursuivre un programme secret d’acquisition de l’arme nucléaire (Iran, Corée du Nord) est perçue comme un nouvel hégémonisme et motive la montée du ressentiment envers un Occident qui aurait d’autant moins de leçons de morale à donner qu’il colonisa, exploita et conquit tant de peuples dans le passé. D’après Ziegler, cette haine antioccidentale paralyse les Nations unies : l’Assemblée générale de l’ONU est d’ores et déjà composée en grande majorité de pays du Sud et émergents (Afrique, Asie du Sud, Amérique latine, monde islamique-OCI, OCS, Brics, etc.), qui contestent l’unipolarité du monde, alors que l’organe décisionnel stratégique (les cinq États membres permanents du Conseil de sécurité) demeure dominé par des États vainqueurs de la Seconde Guerre mondiale (États-Unis, France, Grande-Bretagne, Russie, Chine) qui refusent pour l’heure de revoir cette composition qui ne reflète pourtant plus du tout l’état du monde dans sa pluralité ni l’émergence de nouveaux acteurs stratégiques clés du Sud, comme l’Inde, le Brésil ou l’Afrique du Sud. Tant à la conférence antioccidentale de l’ONU organisée à Durban, en 2000 puis en 2009 (« Durban II »), qu’au Conseil des droits de l’homme des Nations unies à Genève ou à l’Assemblée générale des Nations unies, à New York, on constate la radicalisation d’un front antioccidental, rappelant à la fois l’expérience de la Tricontinentale et des non-alignés, et unissant, contre Israël, les États-Unis, et les pays industriels démocratiques des États aussi différents que l’Égypte, le Pakistan, Cuba, la Bolivie, le Venezuela, les États membres des groupes africains, arabes, musulmans (OCI) et latino-américains, la Corée du Nord, la Chine ou la Russie (Brics, OCS, États non-alignés). C’est notamment par ce type d’accord informel conclu entre pays opposés à l’Occident que la Chine a pu jusqu’à aujourd’hui échapper à toute condamnation globale – par l’Assemblée générale des Nations unies – des persécutions dont sont victimes les indépendantistes tibétains depuis l’annexion de cette région par la Chine ou les Ouïgours musulmans turcophones du Xinjiang 17 . D’une manière générale, Washington et l’UE parviennent de moins en moins à imposer leurs choix aux Nations unies : les propositions des États-Unis sont rejetées par la majorité de l’Assemblée générale, et la baisse du nombre d’États suivant l’Amérique s’observe d’année en année. Monde multipolaire ou polycentrique En raison de la taille considérable des populations de la Chine et de l’Inde, respectivement 1,4 milliard et 1,3 milliard, leur niveau de vie n’a pas besoin de se rapprocher de ceux des Occidentaux pour que ces pays deviennent des puissances économiques et géostratégiques majeures. Quant au Brésil, il pourrait bientôt dépasser presque tous les pays européens, sauf les trois plus grands. L’économie indonésienne, qui connaît un très rapide développement démographique, économique et technologique, tout comme celle du Viêtnam et de la Malaisie, pourraient également bientôt se rapprocher des économies des pays européens, ce qui est déjà le cas pour le Chili et la Colombie. Le Japon est confronté à une crise de vieillissement sévère qui pourrait nuire à sa reprise économique à plus long terme, mais il sera également mis au défi d’évaluer son statut et son rôle régional. Tokyo devra peut-être choisir entre équilibrer ou faire marche commune avec la Chine. La Russie a le potentiel de renforcer son rôle international en raison de sa position de grand exportateur de pétrole et de gaz. Elle est toutefois confrontée elle aussi à une grave crise démographique résultant de faibles taux de natalité, de soins médicaux insuffisants et d’une situation de sida potentiellement explosive, sans oublier le fait, grave pour une puissance contemporaine, qu’elle ne produit et ne vend rien d’autre, ou presque, que des armes, des avions de combat et des énergies fossiles. Au sud, elle borde la région instable du Caucase et d’Asie centrale, dont les troubles – extrémisme musulman, et conflits endémiques – continueront à l’impacter. Alors que ces facteurs sociaux et politiques limitent la possibilité pour la Russie de continuer à être un acteur mondial majeur, Moscou est susceptible d’être un partenaire important pour la Chine ou l’Inde. Enfin, à terme, ces puissances arrivistes – et peut-être d’autres, comme la Turquie, le Mexique, le Nigeria – ont le potentiel de rendre obsolètes les anciennes catégories de l’Est et de l’Ouest, du Nord et du Sud, alignées et non- alignées, développées et en développement. Désoccidentalisation de la mondialisation marchande et technologique Les États-Unis verront leur position de puissance relative s’éroder, même s’ils resteront encore longtemps le pays le plus puissant dans toutes les dimensions du pouvoir. Les plus grands avantages de la mondialisation profiteront aux pays et aux groupes qui peuvent accéder aux nouvelles technologies et seront généralement définis en termes d’investissement et à l’échelle mondiale – que ceux-ci soient acquis grâce à la recherche fondamentale d’un pays ou auprès de leaders technologiques. La Chine et l’Inde sont en pole position pour devenir des chefs de file technologiques, et même les pays les plus pauvres pourront tirer parti de technologies prolifiques et bon marché pour alimenter leur propre développement. La prochaine révolution attendue de la haute technologie, impliquant la convergence des nanotechnologies, des biotechnologies, de l’information et des matériaux (voir chapitre XI), pourrait encore renforcer les perspectives de la Chine et de l’Inde. Les deux pays investissent dans la recherche fondamentale dans ces domaines et sont bien placés pour être des leaders dans des secteurs clés. L’Europe risque de glisser alors derrière l’Asie, faute d’investissements et de budgets R&D suffisants. Dans l’avenir proche, les principales entreprises opérant dans l’arène mondiale seront plus diversifiées, tant en taille qu’en origine, plus asiatiques et de moins en moins occidentales et a fortiori européennes. Elles seront plus souvent basées dans des pays comme la Chine, l’Inde, le Brésil, la Corée du Sud. Alors que l’Amérique du Nord, le Japon et l’Europe pourraient continuer collectivement à dominer les institutions politiques et financières internationales, d’ici 2030, la mondialisation sera de plus en plus assimilée, dans l’esprit populaire, à une Asie émergente qui remplacera l’américanisation et l’occidentalisation façon McWorld. La région Asie, nouveau phare du monde Une zone asiatique opposant les ennemis héréditaires chinois, japonais, sud-coréens et vietnamiens semble se dessiner. Indépendamment de leurs rivalités géopolitiques et identitaires profondes, ces contrées, situées dans la nouvelle zone « d’économie-monde », ont tous les atouts pour déclasser l’ancien pivot ouest-européen et occidentalo-américain dans le futur : méthodes de travail similaires, sens du collectif extrêmement poussé, respect des organisations de type hiérarchique, sens de l’effort, culte du travail, gouvernance efficace, permettent de surmonter les préjugés nationaux et les cicatrices de l’Histoire. Dans ce contexte de commerce horizontal évoqué plus haut, mais qui ne concerne pas que les Brics, entre nouveaux acteurs du monde polycentrique, il est clair que, malgré la Covid-19, bien mieux gérée et surmontée en Asie qu’en Occident, les économies asiatiques vont continuer à croître, tout comme le commerce intra-asiatique en général. Le degré d’intégration du système asiatique dans l’économie mondiale continuera d’augmenter, et la guerre des États-Unis contre la 5G chinoise ne dissuadera pas le reste du monde et des pays européens d’adopter des technologies chinoises qui concurrenceront de plus en plus les Gafam et autres multinationales américaines. La Chine et la zone Asean 18 resteront toujours des acteurs clés du commerce intra-asiatique, d’autant plus que le rebond de ces marchés s’est amorcé dès 2021, avec la reprise de la demande chinoise de biens et la meilleure gestion de la crise sanitaire. En outre, l’industrie manufacturière en Chine et dans l’Asean offre toujours des conditions économiques attractives non seulement pour les entreprises asiatiques, mais aussi pour celles des États-Unis et d’Europe qui continueront à y investir, malgré les belles déclarations de relocalisations. En s’adaptant à la numérisation du commerce et de la logistique et en interagissant davantage au niveau régional, les économies asiatiques peuvent encore faire mieux que celles du monde entier et ceci pour longtemps. Enfin, contrairement aux attentes, une « américanisation » massive des productions jadis trop concentrées en Chine n’est pas attendue dans les années qui viennent, car les grandes firmes transnationales, loin de se conformer aux demandes politiques de relocalisation, jettent leur dévolu sur d’autres pays asiatiques où les salaires sont inférieurs à ceux pratiqués en Chine, mais dont les régimes sont favorables à Washington (Bangladesh, Viêtnam, Inde). En 2021, l’Asie, dans sa globalité, va générer plus de 50 % de l’ensemble du PIB mondial (20 % en 1980). Le 15 novembre 2020, suite au retrait américain de l’accord de partenariat transpacifique (TPP) voulu par Donald Trump en 2017, qui a ravi la Chine, cette dernière a signé avec 14 pays d’Asie-Pacifique (les 10 pays de l’Asean, le Japon, la Corée du Sud, l’Australie et la Nouvelle-Zélande, voir cartes n os 3 et 4) le Partenariat régional économique global (Regional Comprehensive Economic Partnership, RCEP), nouvelle zone de libre-échange qui rassemble plus de 30 % de la population mondiale, qui va diminuer les tarifs douaniers de 90 %, et qui prévoit une croissance des PIB des pays membres de 0,2 %. Cette intégration régionale Asie-Pacifique confirme le découplage entre intérêts économiques et axes stratégiques : nombre d’États du RCEP, comme le Japon, l’Australie ou le Viêtnam, sont hostiles à Pékin, mais la force d’attraction de l’économie chinoise est irrésistible. Le RCEP incite les entreprises étrangères à implanter dans cet espace périphérique de la Chine le maximum d’unités de production pour bénéficier de tarifs douaniers privilégiés et, ainsi, rester compétitives dans la région. La Chine va ainsi asseoir encore son influence économique et industrielle sur toute l’Asie, en déployant de nouvelles chaînes de production en Asie du Sud-Est, sanctuarisant de ce fait sa puissance industrielle et commerciale et contestant le réseau d’alliances militaires et économiques des États-Unis par une stratégie économico-financière de contre-encerclement asymétrique, qui va de pair avec la stratégie du collier de perles et l’initiative BRI... L’intégration de pays industrialisés et proches des États-Unis sur les plans industriel, économique et militaire (Japon, Corée du Sud, Australie et Nouvelle-Zélande) à l’orbite chinoise contredit considérablement les objectifs américains du paradigme « Indo-pacifique » (Free and Open Indo-Pacific) et de la coopération entre le Japon, l’Inde, l’Australie et la Nouvelle-Zélande, face à l’expansionnisme chinois. La question qui se pose pour les Occidentaux à long terme est de savoir si cette nouvelle pax asiatica- economica ne va pas se retourner contre eux, de la même façon que les traités de Vienne et de Berlin avaient uni objectivement les Européens, pourtant divisés, contre le reste du monde avec la colonisation et l’impérialisme... Quelles pourraient être les prochaines cibles de la zone Asie ? La Sibérie russe convoitée, Taiwan appelée, selon l’Oncle Xi, à rejoindre de gré ou de force la mère patrie, le Japon, tôt ou tard contraint de se « réasiatiser » et se désaméricaniser, les Philippines ou la Thaïlande, l’Australie-Pacifique, convoitée par Pékin et vue en Asie comme une anomalie-excroissance européenne allogène ? Pour contrer l’expansion chinoise dans la zone, les États-Unis et leurs alliés comptent notamment sur le QUAD (Quadrilateral Security Dialogue, voir carte n o 3), un forum stratégique informel créé en 2004 composé de l’Inde, du Japon, de l’Australie et de l’Amérique, et dont le premier exercice militaire coordonné a eu lieu fin 2019. Déjà, en 2005, la secrétaire d’État Condoleezza Rice, dans un discours prononcé à l’université Sophia de Tokyo, avait soutenu la nécessité d’alliances en Asie (avec une référence spécifique à l’Inde, la Corée du Sud et le Japon) afin d’empêcher la Chine de grandir « sans laisse » (« sans attaches »). Dans ce contexte, et face à la menace chinoise commune, l’Inde est sortie de son ancienne position de non- alignement. Comme l’Australie, le Japon ou le Viêtnam, l’Inde craint l’expansion chinoise et se rapproche des États- Unis, tout en demeurant membre des Brics et proche de la Russie et de l’OCS. Elle développe ses propres liens économiques, militaires, diplomatiques et zones de libre-échange avec l’Asie du Sud-Est, le Japon et l’Australie. Outre les accords militaires avec le Népal et économiques avec le Japon, l’Inde compte sur l’organisation des pays d’Asie du Sud et du Sud-Est créée dans le cadre des accords Bimstec 19 – qui réunissent le Bangladesh, l’Inde, le Myanmar, le Sri Lanka, la Thaïlande, le Bhoutan et le Népal – et sur l’union économique de l’Asie du Sud. Même si elle ne ferme pas totalement la porte, à terme, au RCEP, dans une logique de diversification et de développement économique (fameux découplage évoqué supra). En conclusion, le scénario le plus réaliste est qu’après la pandémie, l’affrontement politico-économique entre la Chine et les États-Unis s’intensifiera, avec un probable renforcement de la position chinoise dans la région, sans que l’on puisse exclure des répercussions militaires, compte tenu de l’existence dans cette zone de frictions multiples (problème nord-coréen ; question de Taiwan ; « dilemme de Malacca »). Tout cela contredit-il notre annonce d’un monde en voie de multipolarisation et signifie-t-il un retour à un bipolarisme, cette fois-ci non plus russo-américain mais sino-américain ? Pas forcément. Le monde deviendra de toute façon de plus en plus multipolaire, mais dans le même temps, les deux hyperpuissances sino-américaines s’affronteront directement et indirectement, politiquement, idéologiquement, commercialement, et même technologiquement, dans un contexte éminemment polycentrique. Pour reprendre une expression chère aux théoriciens des relations internationales, le décalage des rapports de force résultant de la transition du pouvoir et du resserrement de la confrontation entre les deux grandes puissances pourrait inciter les alliés de Washington à remplacer la stratégie du containment par celle du bandwagoning. À l’opposé du balancing, ce concept fait référence au fait, pour des États faibles, de rejoindre un État plus fort ou une coalition. 1. Partage du pouvoir déséquilibré entre acteurs géostratégiques de premier plan (États-Unis, Chine) et de moindre importance mais régionalement puissants (Russie, Allemagne, Inde, Japon, Brésil, Indonésie, Afrique du Sud, Turquie). 2. Charles Kupchan, The End of the American Era. US Foreign Policy and the Geopolitics of the Twenty-First Century, New York, Knopf, 2002. 3. Base navale de Yulin, sur l’île de Hainan, bases aériennes de Sansha (îles Paracels), de Zhubi, Meiji et Yougshu (Spratleys), à Sihanoukville (Cambodge), à Kyaukpyu, à Sittwe (Myanmar), au Chittagong (Bangladesh), à Hambantota (Sri Lanka), à Gwadar (Pakistan), à Doraleh et Obock (Djibouti) et à Port-Soudan. 4. Doté de 100 milliards de dollars, dont 41 versés par la Chine, 18 par l’Inde, le Brésil et la Russie, et 5 par l’Afrique du Sud, ce fonds, opérationnel depuis 2015, devrait permettre à ses membres de se protéger en cas de tempête sur leurs devises, comme celle déclenchée mi-2013 après le changement de politique monétaire américaine. 5. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 6. UEEA : Arménie, Biélorussie, Russie, Kazakhstan et Kirghizistan. 7. Swift est un système international qui fournit des services de messagerie standardisée et de transfert interbancaire ainsi que des interfaces à plus de 10 800 institutions dans 200 pays. 8. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 9. Investissements directs à l’étranger. 10. On peut citer aussi la Banque asiatique d’investissement dans les infrastructures (BAII), avec laquelle Pékin veut concurrencer le FMI et la Banque mondiale, ou le Regional Comprehensive Economic Partnership (RCEP, voir infra). 11. La BRI englobe tous les niveaux de connectivité : commercial (baisse des droits de douane, contrats de gré à gré), financières (prêts), humain (main-d’œuvre, formation) et construction d’immenses infrastructures (portuaire, routière, énergétique, communication, etc.). 12. Robert W. Merry, Sands of Empire. Missionary Zeal, American Foreign Policy, and the Hazards of Global Ambition, New York, Simon & Schuster, 302 pp. 13. Alexandre Del Valle, « Entretien avec Caroline Galacteros : Les grands défis et enjeux géostratégiques de 2021... et du monde multipolaire plein d’incertitudes qui vient », Atlantico, 22 janvier 2021. 14. Voir Pierre Marie Gallois, L’Heure fatale de l’Occident, Lausanne/Paris, L’Âge de l’Homme, 2004 ; et Gallois, La France sort-elle de l’histoire ? Superpuissances et déclin national, Paris, L’Âge d’Homme, 158p. 15. Le doublement de la population africaine d’ici à 2050 va exacerber le problème des réfugiés économiques. 16. Maastricht, Euro, Schengen ; 60 % des règles nationales issues des décisions de la Commission de Bruxelles, progression du principe de décisions à la majorité au détriment de l’unanimité, etc. 17. Jean Ziegler, La Haine de l’Occident, Paris, Albin Michel, 2008, p. 14, p. 13-14. 18. L’accord de libre-échange de l’Asean, signé le 28 janvier 1992 à Singapour entre les pays membres de l’Association des nations de l’Asie du Sud-Est, est entré en vigueur en 2003. 19. Bay of Bengal Initiative for MultiSectoral Technical and Economic Cooperation. CHAPITRE VI Géopolitique linguistique : le français vecteur multipolaire ? « L’anglais menace le français et la diversité même des langues [...]. Posséder les mots et les diffuser, c’est posséder la pensée 1 . Le français, à la différence de l’anglais, n’a pas de vision dominante mondiale [...], la promotion du français, je le répète, n’a pas pour but une mondialisation à son bénéfice. Il a pour but un autre choix, qui est celui de la diversité. » Claude Hagège, linguiste français Dans les années 1990 et surtout 2000, les échanges d’informations ont connu une amplification sans précédent grâce à la généralisation de l’anglais comme langue de travail et de socialisation dans les zones touchées par la métropolisation, dont il est devenu la lingua franca, avec la numérisation de l’information, l’ordinateur individuel, Internet et le GSM, puis grâce à l’émergence d’une deuxième génération de fournisseurs de services numériques : les Gafam. Depuis cette dernière phase de la mondialisation digitalisée, fruit de McWorld, l’hégémonie de la langue anglo-américaine semble s’imposer partout, bien que certains pôles linguistiques et civilisationnels offrent une résistance, notamment le mandarin, l’espagnol, le portugais, l’arabe et, bien sûr, le français. D’après les spécialistes, le monde contemporain recenserait plus de 6 000 langues ! Mais leur « poids », a fortiori géopolitique, est naturellement très variable. Seulement une trentaine de langues dites « majeures » domineraient la planète. Encore faut-il, d’ores et déjà, lever quelques ambiguïtés quant au dénombrement plus ou moins précis des différents locuteurs. En 2018, certains instituts, notamment anglo-saxons, établissaient des hiérarchies en prenant en compte la « langue maternelle » et la « langue seconde ». La synthèse de ces hiérarchies aboutissait au classement (certes approximatif) suivant, pour les langues maternelles : 1) mandarin : 921 millions de locuteurs ; 2) espagnol : 463 millions ; 3) anglais : 370 millions ; 4) hindi : 342 millions ; 5) arabe : 250 millions ; 6) bengali : 228 millions ; 7) portugais : 227 millions ; 8) indonésien : 200 millions ; 9) russe : 153 millions ; 10) japonais : 80 millions. Cependant, si l’on ne raisonne pas seulement en nombre de locuteurs de langue maternelle mais de langues les plus parlées en prenant en compte la « langue maternelle » et la « langue seconde », on arrive à un classement bien différent 2 : 1) anglais : 1 268 millions ; 2) mandarin : 1 120 ; 3) hindi : 637 4) espagnol : 538 ; 5) français : 277 ; 6) arabe (standard) : 274 ; 7) bengali : 265 ; 8) russe : 258 ; 9) portugais : 252 ; 10) indonésien : 199. Si l’ONU recense officiellement six langues de travail (l’anglais, le français, le russe, le chinois, l’arabe et l’espagnol), la quasi-totalité des grandes organisations internationales ne sont réellement concernées que par l’anglais et le français. Ces deux vecteurs sont les seuls à être de facto présents sur les cinq continents. Eux seuls disposent véritablement du statut international, un statut capital dans la compétition économique, politique et, a fortiori, culturelle qui agite le globe à l’heure de la mondialisation. À l’image du système bipolaire sécrété au plan géopolitique par l’après-Yalta et qui vécut jusqu’à l’effondrement de l’URSS, on peut parler aujourd’hui, sur le plan linguistique, de la pérennisation d’un partage du monde, entre la langue de Shakespeare (ou plutôt celle de l’Oncle Sam !) d’une part – celle de la mondialisation dangereuse, qui efface les identités au profit d’un village mondial anglophone – et la langue de Molière, d’autre part, qui aurait dû continuer à être un vecteur de résistance à McWorld et de promotion d’un modèle multipolaire, le français résistant paradoxalement presque plus au Québec que dans la mère patrie française où les Français semblent avoir honte de leur héritage et de leurs traditions, lorsqu’ils plébiscitent McDonald’s, le blue-jeans, et le fast fashion pour se fondre dans ces millions de consommateurs anonymes que l’Oncle Sam rend dépendants à travers le monde. L’emprise de l’anglo-américain Idiome de McWorld, véhicule privilégié des échanges internationaux et socle du soft power américain avec plus d’un milliard et demi de locuteurs, l’anglais écrase donc la planète linguistique, tant au plan quantitatif que qualitatif. Il est la langue maternelle au Royaume-Uni, aux États-Unis, au Canada, en Irlande, en Australie, en Nouvelle-Zélande, en Afrique du Sud, et la langue seconde dans des nations au gabarit impressionnant comme l’Union indienne, le Pakistan ou le Nigeria. En 2017, les chiffres généralement de l’ordre de 380 millions de locuteurs « langue maternelle », de 620 millions « langue seconde » et plus de 600 millions « langue étrangère » confirment cette hégémonie linguistique... Héritage de l’Empire britannique (Commonwealth), et plus récemment de l’impact économique et politique de la superpuissance étatsunienne, mais aussi de son soft power et de son industrie musicale et télévisuelle, en plus d’être la langue de l’informatique et du business, l’anglais et son avatar anglo-américain constituent l’outil primordial de la communication internationale, des échanges commerciaux aux transferts de technologie, en passant par les systèmes audiovisuels, sans oublier les revues scientifiques et universitaires internationales et les grandes écoles qui imposent les normes américaines. Véhicule politique et commercial, l’impérialisme anglo-américain se traduit aussi par un processus, maintes fois dénoncé (tout particulièrement du côté de Paris), d’« invasion culturelle ». Outre la culture, l’anglais est devenu le vecteur quasi exclusif du monde scientifique. La passivité, voire la résignation, des scientifiques de langue française à son égard est devenue monnaie courante. Une publication dans une revue aussi prestigieuse que Nature ne peut se faire que par le canal de l’anglais. Les classements des centres de recherche universitaires, qui font la part belle, et pour cause, aux institutions anglo-saxonnes, s’appuient d’abord sur les travaux publiés en anglais. En 1988, l’Académie des sciences française décidait de l’emploi de l’anglais dans ses comptes-rendus : reconnaissant le rôle essentiel de l’anglais dans les communications scientifiques internationales, spécialement dans les sciences, l’Académie décidait de donner une place beaucoup plus importante à l’anglais en favorisant les auteurs acceptant de donner leurs propositions de contributions via une abridged english version. Et pour la seule année 2017, on a recensé dans l’enceinte de la vénérable Sorbonne huit colloques et conférences internationaux se déroulant exclusivement en anglais ! Richelieu, rénovateur de l’antique maison, a dû se retourner dans sa tombe... Dès 1990, l’Aupelf s’inquiétait : sur l’ensemble des publications scientifiques dans le monde, 65 % étaient rédigées en anglais, 12 % en russe et 10 % en français. En 2012, les pourcentages étaient passés à 70 %, 13 % et 9 %... Pire, peut-être, en changeant d’échelle, au Québec, siège de l’Organisation internationale de la francophonie (voir infra), 70 % des articles publiés par les scientifiques québécois l’étaient en langue anglaise en 1970... et plus de 85 % en 2012... L’affrontement entre l’anglophonie et la francophonie est particulièrement visible en Afrique de l’Ouest et centrale, où certains pays comme le Rwanda sont passés subitement à l’anglais. Les Tutsis, traditionnellement antifrançais et anglophones, sont devenus la pièce maîtresse de la diplomatie américaine au Rwanda comme dans d’autres pays de la région où ils sont prépondérants. Ce n’est pas non plus un hasard si Laurent-Désiré Kabila, ex- président de la République démocratique du Congo, qui avait renversé Mobutu avec l’aide américaine, inscrivit en priorité dans son programme culturel le remplacement du français par l’anglais comme première langue étrangère. En Afrique noire, la lutte contre la francophonie est également un puissant outil d’islamisation, la francophonie étant assimilée à l’héritage colonial et chrétien. La politique d’islamisation menée par l’Arabie saoudite, le Qatar et le Koweït se traduit d’ailleurs systématiquement, en Afrique, sur le plan culturel, par une éviction de l’influence française, belge ou portugaise au profit de l’anglophonie. Partout, les islamistes, qui veulent rompre tout lien avec les anciennes puissances coloniales, surtout francophones, préfèrent l’anglais standard McWorld au français associé à la laïcité et aux Lumières antireligieuses. C’est en partie en jouant sur ce tableau anticolonialiste que Washington sape partout les positions françaises, comme on a pu le voir dans la région des Grands Lacs, plus particulièrement au Zaïre. Dans d’autres cieux, notamment au Canada, les francophones du Québec ont quant à eux le plus grand mal à résister à la progression de l’anglophonie. Certes, le Québec a adopté des lois contre la progression de termes « franglais » et défend souvent mieux le français que ses « cousins » de France ou de Belgique. Toutefois, ce farouche combat en faveur de la francophonie québécoise n’a pas réussi à maintenir la langue française partout, puisque dans la seconde grande ville du Québec, Montréal, de nombreuses familles anglophones refusent de se plier à la francophonie et tentent même, portées par la mondialisation anglo-saxonne et la proximité des États-Unis, d’y faire progresser l’anglophonie tandis que le français n’est plus connu que de rares élites et de quelques vieillards au Viêtnam, dans l’ex-Indochine française comme en Pologne ou en Roumanie. Le paradoxe québécois La géopolitique de la langue française en Amérique du Nord illustre néanmoins la vitalité de la langue de Molière. Le français est vu généralement non seulement comme une enclave linguistique qui a réussi à se maintenir et à se développer au milieu d’un océan anglo-saxon, mais aussi comme une résistance à la domination linguistique de l’anglais que l’on constate aujourd’hui en France, dont la langue s’anglicise rapidement. L’Histoire de la Nouvelle-France canadienne commence très tôt au début du XVII e siècle lorsqu’une poignée de colons s’installe dans ces contrées peu adaptées à la présence humaine. Or, les quelques colons français (quelques milliers seulement) s’occupent surtout du commerce des fourrures, établissent des relations constructives avec des tribus indiennes voisines, à la différence des Britanniques des 13 colonies, et très vite, une mini-civilisation française se constitue autour du golfe du fleuve Saint-Laurent, des villes de Québec, de Trois-Rivières, et de Montréal. En 1763, après une longue série de guerres, la France cède définitivement sa colonie d’outre-Atlantique à la Grande-Bretagne. Il est curieux de noter que le roi français, lorsqu’on lui offrait le choix d’abandonner soit les Antilles, soit la Nouvelle- France, décide de garder les deux îles sucrières de Guadeloupe et de Martinique qu’il considère comme plus importantes sur le plan économique que « quelques arpents de neige » au Canada français. Ces Français oubliés du Québec comptent alors seulement 60 000 âmes, devenus deux cent cinquante ans plus tard plus de 8 millions. Aujourd’hui, cette province est le véritable moteur économique du Canada et sa partie la plus développée marquée par une forte capacité d’innovation, de flexibilité et de productivité. Comment ceci a-t-il été possible ? Il convient ici de revenir sur un paradoxe : les Québécois ont préservé une forte identité nationale alors même que leurs frères français ont tout fait pour l’effacer – et en même temps cette société a réussi à s’insérer dans l’écosystème productif de l’Amérique du Nord. Le Québec constitue un prolongement vers le nord du cluster productif et financier de la côte est des États-Unis. En même temps, le Québec représente une porte d’entrée pour les capitaux européens en raison de ses liens avec le Vieux Continent. Les Québécois francophones ont préservé pendant des siècles une très forte natalité grâce au modèle rural qui prédominait au Canada français, mais ils ont aussi préservé la langue de leurs ailleux en résistant farouchement à tout emprunt linguistique à leur voisin. Nous pensons que cette lutte identitaire est à l’origine du phénomène que l’on observe aujourd’hui au Québec et qui consiste en ce que le développement économique et l’innovation ne peuvent avoir lieu que dans une société fière de ses racines, de son histoire, qui résiste à la mondialisation anglo-saxonne et qui n’a pas honte de son identité. Grâce à une politique linguistique très active, les Québécois ont non seulement réussi à maintenir leur présence mais aussi à élargir le champ de la langue française qui progresse même aujourd’hui au Québec, y compris à Montréal, notamment au moyen d’une immigration sélective privilégiant les candidats francophones venus de France, de Belgique, de l’Afrique du Nord et de l’Afrique subsaharienne. Les autorités québécoises pratiquent en effet une immigration volontariste et choisie puisque les candidats sont soumis à un examen linguistique préalable avant de pouvoir émigrer au Canada francophone, ce qui rend plus éligible par exemple un Russe francophone qu’un Algérien qui ne le serait plus. Francophonie avec un grand F : l’Organisation internationale de la francophonie La Francophonie avec un F majuscule désigne l’ensemble des États et des instances officielles supraétatiques « qui ont en commun l’usage du français dans leurs communications et leurs échanges ». La Francophonie est aujourd’hui « dirigée » par l’OIF 3 . Le concept, créé à l’origine au XIX e siècle par le géographe Onésime Reclus, était une idée défendue par quelques grandes personnalités du monde francophone, comme le Cambodgien Norodom Sihanouk, le Tunisien Habib Bourguiba ou, au premier rang d’entre eux, le Sénégalais Léopold Sédar Senghor, membre de l’Académie française... Le 20 mars 1970, c’est en présence du ministre de la Culture français, André Malraux, et de 22 chefs d’État que l’acte de naissance de l’ACCT (Agence de coopération culturelle et technique), devenue aujourd’hui l’Organisation internationale de la francophonie, est signé à Niamey. La liste des signataires est édifiante : 5 États de l’hémisphère Nord, la France, Monaco, le Canada, la Belgique et le Luxembourg ; 2 États de l’Asie pacifique, le Cambodge et le Viêtnam, 1 des Caraïbes, Haïti, et 14 États du continent africain 4 . La place des États pudiquement baptisés « pays en voie de développement » y reste donc très majoritaire, et on imagine sans mal, dès cette époque, qu’au-delà des objectifs strictement linguistiques et culturels, les préoccupations géoéconomique sont présentes dans de nombreux cas. Depuis 1945, l’Afrique subsaharienne partage le triste privilège de vivre en direct la majorité des conflits ouverts. Et les États francophones sont loin d’être absents du palmarès, de la guerre entre le Mali et le Burkina Faso aux dramatiques événements du Rwanda, des crises intestines égrenant l’histoire contemporaine de l’ex-Zaïre ou du Congo-Brazzaville au conflit de Casamance ou à celui du Sahara occidental entre le Maroc et la Mauritanie, sans oublier la montée en puissance de l’islamisme et du djihadisme dans toute la bande sahélo-saharienne et alentour. Quant à l’océan Indien, exempt de nombreux conflits « frontaliers » par essence, leur intérêt stratégique n’en est pas moins exceptionnel ! Et ce n’est pas par hasard que, sous couvert de la francophonie, Paris affirme sa présence, via sa souveraineté sur les « Îles Éparses 5 » ou son département de Mayotte, face aux Comores. Cette évocation nous autorise sans doute à souligner, in fine, le rôle majeur et parfois complémentaire, joué par les disparités de valeurs, politiques religieuses et « historiques ». Pour ce qui est des valeurs démocratiques, au-delà de l’exemple de la Guinée équatoriale, la palette des régimes politiques est particulièrement variée au sein des États membres de l’OIF, des grandes démocraties libérales occidentales aux régimes « autoritaires » en passant par les « semi-présidentiels », ou, pour reprendre l’heureuse formule de l’écrivain argentin Ernesto Sábato, les « démocratures ». Concernant le facteur religieux, rappelons qu’officiellement, seuls quelques États comme la France ont intégré le concept de laïcité dans leur Constitution. Face au fait religieux, la diversité des membres de l’OIF est patente : si la quasi-totalité de ses adhérents localisés dans l’hémisphère Nord baignent dans la sphère judéo-chrétienne et ses héritages plus ou moins laïques et désenchantés, les contrées du Sud en général et du continent africain en particulier sont marquées par une expansion structurelle et spatiale de l’Islam, voire de l’islamisme antioccidental, antifrançais et de plus en plus hostile à la francophonie. Son expansion tend à délégitimer et même à combattre les religions jadis importées par les puissances coloniales européennes chrétiennes. Une référence concrète, en ce domaine, peut être évoquée : l’appartenance de certains membres de l’OIF à une autre institution internationale, l’Organisation de la conférence islamique (OCI). Sur les 29 États africains membres de l’OIF, 18 ont aussi adhéré à l’OCI, dont 7 membres fondateurs de la Francophonie. Créée dès 1970, à Djeddah, la Conférence islamique, évoquée au chapitre VII, est devenue une institution incontournable à l’échelle de l’ensemble du monde musulman. Certains de ses objectifs clairement affichés ne peuvent que contribuer à renforcer les divergences d’intérêts au sein l’OIF entre membres et non-membres, par exemple l’article qui invite à « consolider la solidarité islamique ; à conforter la lutte de tous les peuples musulmans pour la sauvegarde de leur dignité, de leur indépendance et de leurs droits nationaux »... A fortiori quand on lit dans la Charte le souci de rendre compatibles « les lois civiles avec celles supérieures de la charia », puis de « coordonner les actions destinées à sauvegarder les Lieux saints, soutenir la lutte du peuple palestinien et aider à récupérer ses territoires », l’objectif est difficilement compatible avec celui de l’OIF qui s’interdit toute ingérence dans la géopolitique interne des États. La troisième vague d’adhésions, qui fait passer aujourd’hui l’OIF à 84 membres (54 de plein droit, 4 associés et 26 observateurs), est plus édifiante encore. Elle correspond à la conjonction de 3 facteurs complémentaires : la disparition du système bipolaire, le processus de mondialisation et les mutations internes des missions assignées à l’OIF 6 . Un flux qui, même si certains de ces nouveaux adhérents n’adoptent que le simple statut d’observateur, souligne le souci des anciens membres du bloc de l’Est, après la disparition de l’Union soviétique, d’intégrer des structures supraétatiques susceptibles de leur éviter l’isolement géopolitique synonyme de marginalisation et qui explique aussi l’arrivée au sein de l’OIF d’États où le français n’est ni langue officielle, ni langue nationale, et même tout juste « langue d’étude » pour une minorité ! Quant au processus de mondialisation, il achève de faire de l’OIF une organisation fermement ancrée sur les 5 continents, avec l’adhésion du Cap-Vert (1992), de la Suisse (1996), de São Tomé e Príncipe (1999), d’Andorre (2004), de l’Autriche (2004), de la Grèce (2004), de Chypre (2006), du Ghana (2006), du Mozambique (2006), de la Thaïlande (2006), de la République dominicaine (2010), des Émirats arabes unis (2010), du Monténégro (2010), du Qatar (2012), de l’Uruguay (2012), de la Corée du Sud (2015), du Mexique (2015) ou de l’Argentine (2016). Les missions de l’OIF, progressivement modifiées, se sont notamment concrétisées par les déclarations historiques de Bamako, de Saint-Boniface et de Ouagadougou. Les deux premières soulignent la volonté de l’OIF de « contribuer à la prévention des conflits et dans l’espace francophone, de favoriser la consolidation de l’État de droit et de la démocratie et d’agir pour la promotion et l’effectivité des droits de l’homme ». Programme qui épouse indéniablement les grands principes et les grands axes de la politique étrangère conduite par la France au cours des dernières décennies. Quant à la déclaration de Ouagadougou, elle met en avant dans le domaine économique et social les thèmes majeurs de la coopération et du développement durable et solidaire. Notons déjà, une incompatibilité (au moins apparente) entre ce double affichage et le fait que l’OIF a aussi adopté sans réserve le principe de non-ingérence dans les affaires intérieures des États concernés ! Au-delà de ces considérations générales, deux processus majeurs et complémentaires demeurent : l’approfondissement des structures, des missions, des objectifs, d’une part ; l’élargissement géographique, avec la multiplication spectaculaire des adhésions, d’autre part. Parmi les exemples les plus édifiants, on peut citer celui de la Guinée équatoriale. Au lendemain de son accession à l’indépendance, ce pays ne reconnaissait qu’une seule langue officielle, l’espagnol (en dépit du fait que la grande majorité de ses habitants ne parlait que fang). Par sa situation géographique, la partie continentale du pays étant frontalière de deux États francophones, le Gabon et le Cameroun, le régime de Malabo a décidé d’adopter, en 1998, une loi constitutionnelle établissant que « les langues officielles de la République de Guinée équatoriale sont l’espagnol et le français ». Dans ce contexte volontariste, le français est devenu la langue obligatoire dans les établissements du second degré (des établissements, il est vrai, fréquentés par moins de 10 % de la population). En juillet 2007, le président Obiang Nguema faisait adopter le portugais comme troisième langue officielle du pays, et adhérait dans la foulée à la Communauté des pays de langue portugaise (la CPLP, « lusophonie ») sans cacher que l’officialisation des langues française et lusitanienne était destinée à favoriser la candidature de Malabo aux aides économiques offertes par la France, la CPLP et la Francophonie ! À l’échelle de l’Europe, les nouveaux venus dans le club francophone de l’OIF confortent sans équivoque l’actualité et la pérennité des contentieux potentiels de la péninsule balkanique. La Croatie catholique (proallemande et germanophile), la Serbie orthodoxe (traditionnellement francophile), l’Albanie musulmane (très italophile et italophone), par exemple, sont désormais toutes les trois membres de l’OIF. Cela suffira-t-il à éradiquer définitivement les problèmes interétatiques, voire intraétatiques qui surgissent régulièrement au sein des territoires de l’ex-Yougoslavie ? On peut bien sûr en douter. Au-delà des Balkans, la présence de la Moldavie, de l’Ukraine, de l’Arménie ou de la Géorgie dans cette instance francophone rappelle aussi directement l’acuité des questions géopolitiques qui ont agité et qui agitent encore les marches orientales de l’Europe, l’ensemble caucasien et la vitalité de ses « conflits gelés ». Dans l’Asie du Sud-Est, la présence du Laos, du Viêtnam ou du Cambodge contribue à s’interroger sur la fragilité des équilibres régionaux et sur le rôle effectif que pourrait jouer l’OIF dans la promotion des valeurs démocratiques. Au plan des relations bilatérales, les exemples foisonnent aussi en matière d’ambiguïté et vraisemblablement de leurres et de faux-semblants. Par exemple, la « cohabitation », au sein de l’OIF, de la Hongrie, de la Roumanie, de la Bulgarie et de la Moldavie, masque les contestations récurrentes liées (et pas seulement dans la mémoire collective) aux modifications historiques des frontières, et particulièrement celles qui sont directement héritées des traités mettant fin à la Première Guerre mondiale et régulièrement réactualisés par l’épineuse question des minorités. Témoin, l’œuvre concrète d’un francophone, Emmanuel de Martonne, le « Père » de la Grande Roumanie, dont la personne est quasiment adulée à Bucarest et franchement détestée du côté de Budapest ou de Sofia, et pour cause : une partie de l’ancienne Hongrie, toujours peuplée de Magyars, appartient à la Roumanie. 1. Claude Hagège, Contre la pensée unique, Paris, Odile Jacob, 256 p. 2. Tristan Gaudiaut, « Les langues les plus parlées dans le monde », Statista, 29 septembre 2020. 3. Organisation internationale de la francophonie. 4. Bénin, Burundi, Côte d’Ivoire, Gabon, Burkina Faso, Madagascar, Mali, Maurice, Niger, Rwanda, Sénégal, Tchad, Togo, Tunisie. Une seconde vague d’adhésions deux décennies après, plus hétérogène : Laos (1972), Liban (1973), Comores (1975), Seychelles (1976), Djibouti (1977), Vanuatu (1979), Dominique (1977), Sainte-Lucie (1979), Mauritanie (1981), Maroc (1981), Égypte (1983), Centrafrique (1973), Cameroun (1975), Congo RDC (1977), Guinée-Bissau (1979), Congo-Brazzaville (1981), Guinée (1981). 5. Petites îles françaises situées autour de Madagascar. 6. Vont adhérer successivement à l’Organisation des pays comme la Roumanie (1991), la Bulgarie (1991), la Pologne (1996), la République tchèque (1997), la Moldavie (1998), la Lituanie (1999), l’Albanie (1999), la Slovénie (1999), la Slovaquie (2002), la Macédoine (2002), la Serbie (2003), la Hongrie (2004), la Croatie (2006), la Géorgie (2006), l’Ukraine (2006), I’Arménie (2008) ou la Lettonie (2008). PARTIE II VARIABLES CONTEMPORAINES CHAPITRE VII Islamisme et terrorisme mondialisés « Il faut savoir ce que l’on veut. Quand on le sait, il faut avoir le courage de le dire. Quand on le dit, il faut avoir le courage de le faire. » Georges Clemenceau De quoi parle-t-on au juste ? Loin de supprimer les conflits identitaires, la mondialisation est un formidable moteur des chocs civilisationnels, dont l’islamisme radical est l’exemple le plus flagrant. Le projet panislamiste étant par définition hostile aux frontières et aux nations, il constitue de ce point de vue une des faces noires de la mondialisation. En 2014, lorsque des combattants de l’État islamique effaçaient à coups de pelleteuses la frontière syro-irakienne considérée comme un héritage impie des accords Sykes-Picot, cela participait en fait du même projet antifrontiériste que celui annoncé par Thomas Friedman, auteur de La Terre est plate. Cet apparent paradoxe a été décrypté par Benjamin Barber dans son ouvrage précité, Djihad versus McWorld. Pour mieux comprendre la place de l’islamisme et du terrorisme djihadiste dans le processus de mondialisation et donc de destruction de la diversité culturelle de la planète, il faut d’abord définir ce phénomène d’un point de vue géopolitique. La perspective communautarienne 1 des relations internationales, théorisée par Barry Hughes 2 , qui reconnaît aux groupes identitaires ethnoreligieux radicaux un rôle d’acteurs de la politique internationale, permet d’appréhender l’islamisme comme un phénomène géopolitique à part entière, dont le terrorisme n’est qu’une composante minoritaire. Du point de vue des études de sécurité et de la polémologie, l’islamisme doit être analysé comme un projet politico-religieux qui vise à imposer la charia dans sa conception totalitaire à tous les musulmans, puis à rétablir un califat destiné à dominer, de gré ou de force, l’humanité tout entière (voir califat, cartes n o 8 et 9). Ce continuum idéologico-religieux, qui crée des passerelles entre islamisme politique institutionnel et islamisme djihadiste, ne peut pas être ignoré par ceux qui font face à cette menace à la fois polymorphe et asymétrique, qu’ils soient musulmans, les premiers concernés et frappés par les islamistes qui poursuivent avant tout les « apostats » (murtaddin), ou qu’ils soient non musulmans, donc des infidèles (koufars). D’après l’approche communautarienne de Barry Hughes, les communautés qui se perçoivent comme supérieures (race, ethnie, religion ou culture/langue) ont tendance à s’isoler par l’établissement de frontières étanches, formelles ou virtuelles, et peuvent devenir des acteurs influents de la politique internationale dès lors que leur groupe en rupture avec l’ordre ambiant veut imposer sa domination aux autres entités via un prosélytisme suprémaciste ou irrédentiste 3 . Adepte de cette démarche analytique qui analyse le fait civilisationnel, Mohammad- Reza Djalili 4 a très bien mis en lumière la conception géopolitique originelle islamique, à laquelle se réfèrent toutes les mouvances islamistes, en rappelant que l’islam politique (et pas seulement le terrorisme islamiste) divise principalement l’humanité en deux mondes antinomiques : le dar al-islam, ou « demeure de l’Islam », entité fondée sur le triple monisme : une communauté, une foi, une loi, et le dar al-harb (monde du non-Islam ou demeure de la guerre, à combattre ou à soumettre). Les musulmans sont ici censés former une communauté unique, séparée et supérieure 5 . Dans cette vision, la religion est le seul fondement de la citoyenneté et de la communauté, l’oumma, appelées à terme à être réunies dans un califat (carte n o 8). Ce projet néocalifal, commun aux mouvances islamistes institutionnalisées (Frères musulmans, Jamaa al-islam, Millî Görüş, etc.) ou terroristes (salafistes djihadistes), relancé par les adeptes du salafisme ou salafiyya, est non seulement vu comme une institution supranationale appelée à dominer toute l’humanité (Tamkine planétaire), mais constitue la seule « nation » ayant réellement le droit d’exister sur terre. Le droit islamique classique ne reconnaît d’ailleurs d’autre nation que l’islamique. Cette théorie néo-impériale de l’État universel islamique s’oppose par principe à la coexistence d’une pluralité d’États égaux et souverains, et c’est pour cette raison notamment que l’islamisme radical n’est pas qu’une menace terroriste (partie émergée de l’iceberg totalitaire) mais avant tout un défi géopolitique et stratégique pour tous les États-nations attachés à leur souveraineté et à leur pérennité, qui voient dans l’islamisme un projet subversif à la fois séparatiste (en interne) et suprémaciste conquérant (au niveau externe). « Tant que l’humanité dans sa totalité n’est pas soumise à cet État islamique idéal – le “dar al-islam” –, il reste une partie du monde qui échappe à la loi divine, le “dar al- harb”, explique Djalili. Pour conquérir ces territoires, le recours à la force (guerre) est en principe licite jusqu’à la victoire finale de l’Islam sur les non-croyants. » Fortement influencé par le prédicateur islamiste pakistanais Abou Ala al-Mawdoudi, penseur majeur des Frères musulmans – après al-Banna et Sayyid Qutb, inspirateur du djihadisme, confirme cette idée « orthodoxe » théocratique que « l’Islam ne connaît que deux types de sociétés : musulmane ou jahilite. La société musulmane est celle où est appliqué l’Islam, [...]. La société jahilite est celle où l’Islam ne s’applique pas 6 ». Par extension, la jahiliyya désigne tout ce qui, dans le monde moderne, s’éloigne de l’Islam, que ce soient les vestiges de la société païenne pharaonique ou les sociétés non musulmanes du présent. Dans la rhétorique musulmane traditionnelle, l’Europe, l’Inde ou les pays musulmans dirigés par des régimes peu ou prou laïcisant (Irak, Syrie, Tunisie, Turquie) sont par conséquent des sociétés jahilites 7 . Les pôles majeurs du totalitarisme vert : de l’islamisme institutionnel au djihadisme Cette pensée totalitaire, commune à l’islamisme indo-pakistanais, au salafisme révolutionnaire et djihadiste et aux Frères musulmans, dont les États protecteurs actuels sont le Qatar et la Turquie d’Erdoğan, inspire l’ensemble de l’islamisme radical. La seule différence est que les djihadistes veulent réaliser l’objectif ultime du califat universel par la guerre hic et nunc, dans le cadre de la « stratégie de la sidération » violente, alors que les adeptes de l’islamisme institutionnel (Frères musulmans ; islamistes turcs de l’AKP/Milli Görüs) veulent y parvenir par des moyens démocratiques ou subversifs, en prenant le contrôle d’États musulmans purifiés de leurs forces laïques stato- nationalistes, perçues comme des cinquièmes colonnes du monde « mécréant ». En dépit des différences et antagonismes opposant, d’une part, l’islamisme institutionnel, adepte de la stratégie de l’entrisme, et, de l’autre, l’islamisme djihadiste, adepte de la stratégie de l’intimidation par la violence, les sources théologiques salafo- fréristes demeurent communes et les deux acteurs islamistes dissemblables concourent tous deux aux mêmes objectifs de démantèlement du pouvoir infidèle dénoncé par Hassan al-Banna, Sayyid Qutb ou Abou Ala al- Mawdoudi et d’édification d’un empire califal, décrit par Bruno Étienne comme le marqueur même de la catégorie d’islamisme radical. Cette idéologie fondée sur le règne de la charia et du califat planétaire, appelée à soumettre, de gré ou de force, l’humanité (voir carte n o 8), est portée depuis des décennies par des grands pôles étatiques 8 : le wahhabisme salafiste officiel d’Arabie saoudite, avec son bras prosélyte mondial, la Ligue islamique mondiale ; le pôle indo-pakistanais, cofondateur du Jamaat al-islamiyya ; des talibans d’al-Qaida ; le Qatar, parrain du Hamas et des Frères musulmans, à la tête du média planétaire Al Jazeera ; le pôle néo-ottoman réhabilité par la Turquie postkémaliste de Recep Tayyip Erdoğan ; la révolution islamique iranienne chiite, influencée dans ses origines par les Frères musulmans bien qu’étant chiite ; sans oublier les puissantes institutions et organisations internationales panislamiques comme l’Organisation de la coopération islamique (voir infra), qui réunit cinquante-sept pays musulmans désireux d’instaurer un ordre international alternatif fondé sur la charia, l’Organisation du monde islamique pour l’éducation, les sciences et la culture (Isesco, sorte d’« Unesco » islamique, influencée par les Frères musulmans) ; et enfin, les grandes centrales terroristes comme al-Qaida ou Daesh, et les groupes franchisés associés comme Aqmi, Boko Haram, shebab somaliens, etc. (voir infra). Ces pôles sont tous plus ou moins reliés par des passerelles officieuses ou officielles, ponctuelles ou durables, le Qatar, la Turquie et l’Iran appuyant officiellement le Djihad islamique et le Hamas palestiniens, et le Pakistan, le Qatar, le Koweït, le Soudan, l’Arabie saoudite et la Turquie soutenant ou ayant même parfois cocréé des centrales terroristes comme al-Qaida ou Daesh. De ce fait, la différence entre, d’une part, l’islamisme institutionnel, qui a pignon sur rue en pays musulman et non musulman, et, de l’autre, l’islamisme djihadiste, est plus une différence de degrés que de nature, et c’est bien là le vrai fond, idéologico-politique et théologique, du problème. Les organisations terroristes ne constituent que la face émergée de l’iceberg islamiste totalitaire qui a déclaré la guerre à ses ennemis « mécréants » et « apostats ». En réalité, la menace islamiste est également incarnée par des pays et mouvances parfois réputés « amis » de l’Occident, certains étant dotés d’armées régulières, parfois nucléaires (Pakistan, bientôt la Turquie et l’Arabie saoudite), ou fournies par l’Alliance atlantique (Turquie). Elle est alimentée financièrement, diplomatiquement et idéologiquement par les monarchies gazo-pétrolières sunnites du Golfe et relayée – sous couvert de droit à la liberté religieuse – jusqu’au sein de nos sociétés ouvertes ou des Nations unies, par des organisations et associations appuyées au niveau institutionnel par ces mêmes États et pôles précités (Isesco, OCI, Ligue islamique mondiale, etc.). Paradoxalement, l’Occident entend donc lutter contre le djihadisme sur son sol sans jamais neutraliser ces pôles subversifs parfois « alliés », qui poursuivent pourtant les mêmes objectifs d’islamisation planétaire que ces terroristes, certes de façon plus « pacifique ». L’erreur occidentale et atlantiste des alliances contracivilisationnelles Les alliances paradoxales, que nous avons nommées « contra- ou anticivilisationnelles » scellées par les États occidentaux membres de l’Otan avec les pôles de l’islamisme, remontent, on le sait, à la fin de la Seconde Guerre mondiale (pacte du Quincy scellé entre les États-Unis et l’Arabie saoudite en 1945). Elles ont été à la fois fondées sur des impératifs énergétiques, financiers, puis politico-stratégiques, notamment sous la guerre froide, lorsque les États-Unis ont appuyé les moudjahidines en Afghanistan pour endiguer l’Union soviétique (muslim belt). La généalogie du djihadisme remonte en fait, sur le plan doctrinal, à un courant de l’islam sunnite promu par l’Arabie saoudite et le Qatar, et inspirateur théologique d’al-Qaida et de Daesh, le hanbalisme, ancêtre du wahhabisme. On appelle aussi ce courant « salafisme », en référence aux « pieux ancêtres » (as-Salaf), les premiers musulmans compagnons de Mahomet qu’il conviendrait selon eux d’imiter en tout, y compris dans le culte du djihad conquérant 9 . Au même titre que le djihad guerrier offensif, le dogme salafiste (aqida), qui invite tout musulman à désavouer les mécréants et à faire corps avec les musulmans (al-wala wa’l-bara ou « l’alliance et le désaveu »), est directement issu du wahhabisme saoudien. Cette idée foncièrement communautarienne, pour paraphraser Hughes, ou séparatiste, selon les termes du président Emmanuel Macron, consistant à désavouer les infidèles, a été théorisée au XIX e siècle par le petit-fils de Muhammad ibn ‘Abd al-Wahhāb ash-Sheikh (1786-1818) et elle est officiellement enseignée en Arabie saoudite et dans des milliers de mosquées et centres islamiques pilotés par ce grand allié des États-Unis dans le monde entier. À titre d’exemple, le fameux terroriste français Farid Benyettou, émir du réseau djihadiste dit « des Buttes-Chaumont », à Paris, qui a formé un nombre incroyable de futurs terroristes, élaborait ses « cours de religion » à partir des ouvrages de salafistes très respectables comme Muhammad ibn ‘Abd al-Wahhāb, notamment Ousoul ath-Thalata, puis de Saoudiens contemporains en bons termes avec les autorités de Riyad, comme Muhammad ibn Salih al-‘Uthaymin (mort en 2001), auteur notamment d’un manuel de droit islamique, Al- Ousoul min ‘ilm al-Oussoul 10 . À ses débuts, le phénomène s’est essentiellement exprimé à l’échelle locale, malgré sa prétention néocalifale déjà perceptible dans les écrits fondateurs des grands idéologues de l’islamisme radical au XIX e siècle. Force est de constater que c’est le processus de mondialisation anglo-saxonne qui a permis à al-Qaida de devenir la première organisation internationale islamiste et djihadiste dans les années 1980-1990, au sortir de la guerre froide. Depuis, le djihadisme, profitant de la mondialisation technologique comme des flux migratoires et du multiculturalisme, est devenu le quotidien de nombreuses sociétés musulmanes ou non musulmanes partout dans le monde. État des lieux et stratégies du djihadisme D’après une étude de la Fondation pour l’innovation politique (Fondapol) qui a recensé les attentats djihadistes dans le monde sur les quarante dernières années, le terrorisme islamiste aurait tué 167 000 personnes entre 1979 et 2019 pour 36 000 actes terroristes perpétrés aux quatre coins du globe. À ce chiffre, il convient d’ajouter au moins 3 000 morts en 2020, ce qui nous amène à un total de 170 000 morts début 2021. Si la France est le pays européen le plus touché, avec 320 morts causés par près de 74 attentats islamistes (soit 100 morts de plus que l’Espagne et trois fois plus que le Royaume-Uni – 101 morts), l’attentat du World Trade Center du 11 septembre 2001 (2 977 victimes) demeure l’acte le plus meurtrier à ce jour. Toutefois, il faut toujours garder à l’esprit que les pays qui paient le tribut le plus lourd sont, et de loin, les pays musulmans eux-mêmes, les zones les plus touchées étant l’Asie centrale (Afghanistan : 36 725 morts), l’Afrique subsaharienne (Nigeria : 19 000 morts), les États de la mer d’Arabie (Somalie, Soudan, Yémen), le Proche- et le Moyen-Orient (Syrie, Irak). Depuis 2012, l’Europe, plus particulièrement la France et la Belgique, a été la cible d’attentats ou de projets d’attaques perpétrés par des commandos revenant de Syrie ou d’Irak, ou bien par des islamistes ne s’étant pas rendus sur zone mais déterminés à agir localement. Dans la seule période 2017-2019, les pays de l’Union européenne ont subi 115 incidents à caractère terroriste islamiste, 22 attentats, 13 tentatives d’attentats et 78 projets d’attaques, pour un total de 85 morts et 400 blessés 11 . Près de 5 500 citoyens européens sont partis faire le djihad en Syrie-Irak depuis 2014 et 7 000 d’Afrique du Nord 12 . D’après le coordinateur de l’Union contre le terrorisme, Gilles de Kerchove, 1 500 djihadistes sont déjà rentrés en Europe depuis 2014, et le nombre d’islamistes radicaux capables de passer à l’acte est évalué à 50 000 au moins pour l’ensemble de l’UE 13 , donc sans compter des foyers suisses, bosniaques ou kosovars et albanais. Il estime le nombre d’islamistes prodjihadistes ou terroristes à 5 000 en Espagne, 25 000 au Royaume-Uni, et 17 000 en France. Dans l’Hexagone, 450 détenus islamisés (radicalisés) ont déjà été libérés entre 2012 et 2020, la majorité ayant été fanatisée en prison, preuve que les stratégies de déradicalisation et de réinsertion promues par l’Union et ses pays membres sont un fiasco, d’autant que dans plusieurs cas, des terroristes passés à l’acte étaient eux-mêmes suivis par les services... La France est le pays pour lequel le défi est et sera le plus important à l’avenir : environ 21 000 personnes ont été identifiées comme étant à des stades divers de radicalisation 14 . Le problème se pose donc, d’une part, avec les terroristes encore présents en Syrie dans les camps de détention kurdes, qui pourraient s’échapper ou être libérés, à la suite du désengagement américain et de l’abandon des forces kurdes, puis, d’autre part, en Europe et en France avec « les frustrés du djihad », ceux qui n’ont pas pu partir, puis tous ceux qui vont être ou ont été libérés de prison après être revenus de la zone Syrie-Irak- Yémen ou après avoir été arrêtés dans le cadre d’opérations terroristes commises ou planifiées en France. Les Français partis faire le djihad, le plus gros contingent d’Européens, et qui sont de retour, représentent ainsi un danger et un défi majeurs pour les autorités, en raison de leur expérience du terrain, de leur formation aux techniques de guérilla urbaine et de leur capacité à transmettre leur savoir aux radicalisés français, notamment en prison. De plus, la situation instable dans le nord de la Syrie, avec le retrait des troupes américaines, a inspiré le gouvernement français qui a décidé de rapatrier près de 130 hommes et femmes 15 détenus par les Kurdes et qui ont combattu ou sont en lien avec l’État islamique, soit une faible proportion sur les 300 personnes entre 2012 et 2017 qui sont revenues de Syrie, dont 240 hommes djihadistes 16 . Preuve de la forte possibilité de récidive de ces détenus libérés et très difficiles à surveiller indéfiniment, faute de moyens, une étude du Centre d’analyse du terrorisme (CAT) de juillet 2018 rappelle qu’environ 60 % des Français partis faire le djihad entre 1986 et 2011, en Afghanistan, en Bosnie ou en Irak, ont récidivé à leur retour : 6 revenants sur 10 ont en effet été condamnés en France ou à l’étranger postérieurement à leur retour pour des infractions terroristes. Ces chiffres ne comprennent pas les nombreux Français partis rejoindre Daesh entre 2014 et 2019, faute d’étude globale sur leur cas, fait ainsi valoir le CAT, et de recul historique, la majorité des 600 personnes jugées depuis 2014 étant encore en détention. Une menace asymétrique à la fois exogène et endogène Les principaux facteurs qui ont engendré le terrorisme international dans un contexte de mondialisation toujours plus intense ne montrent aucun signe de ralentissement pour les quinze prochaines années. Facilitée par les communications mondiales et les nouvelles technologies de l’information, la renaissance globale de l’identité islamique et le succès de l’islam politique, mouvement de fond observé dans tous les pays musulmans et même au sein des minorités musulmanes d’Occident, d’Inde, ou d’Asie du Sud-Est, va continuer d’offrir un cadre propice pour la diffusion de l’islamisme radical à l’intérieur et à l’extérieur du Moyen-Orient. Ce renouveau panislamiste s’est manifesté de façon particulièrement conflictuelle dans les contrées aux prises avec des luttes séparatistes nationales ou régionales (Palestine, Tchétchénie, Irak, Cachemire, Mindanao, sud de la Thaïlande, Xinjiang, Syrie, Libye, Nigeria, Afghanistan, Sahel, Corne africaine, etc.). Et dans un avenir proche, des grandes centrales djihadistes comme al-Qaida ou Daesh vont absorber encore plus qu’auparavant des guérillas islamistes et des mouvements séparatistes locaux. Parallèlement aux réseaux informels et traditionnels de fondations caritatives, madrassas, hawalas, et autres mécanismes de solidarité panislamique, exploités au maximum par les organisations islamistes pour contrer les forces antiterroristes et judiciaires des États, les technologies de l’information digitale permettront à la menace terroriste de devenir de plus en plus décentralisée, évoluant de ce fait vers un éventail éclectique de groupes, cellules et individus qui n’ont plus besoin d’un quartier général fixe pour planifier et exécuter des opérations, même si les actes perpétrés individuellement par des terroristes de troisième génération (voir infra) ou pseudo-loups solitaires sont en fait inspirés par les grandes centrales qui conçoivent kits, modes d’emploi, programmes ou simples appels destinés à mobiliser plus de personnes encore. Les conseils de ciblage, le savoir-faire en matière d’armes, la collecte de fonds et les formations deviendront de plus en plus virtuels, surtout avec l’avènement de la 5G et des imprimantes 3D (voir chapitre IX). Les attaques terroristes continueront, certes, d’utiliser principalement des armes conventionnelles, voire rudimentaires (djihad low cost : couteaux, voitures béliers et fusillades), qui s’adaptent constamment à la lutte contre le terrorisme. Toutefois, l’intérêt des djihadistes pour les armes chimiques, biologiques, radiologiques et nucléaires, certes compliquées à manier et à acquérir, est croissant. Le risque d’attaques terroristes majeures impliquant des ADM (armes de destruction massive) augmente donc. Les terroristes pourraient en effet acquérir des agents biologiques ou, moins vraisemblablement, un engin nucléaire portable (valise nucléaire), qui pourrait causer des pertes massives. Le bioterrorisme semble particulièrement adapté aux groupes plus petits et mieux informés. Les terroristes vont également intensifier les cyberattaques pour perturber les réseaux d’information critiques et, plus probablement encore, causer des dommages physiques aux systèmes d’information, puis pénétrer et frapper les services régaliens et même de renseignements. L’exemple français le plus évident étant l’agent de renseignement informaticien Mickaël Harpon, qui attaqua et tua quatre de ses collègues à la direction du renseignement de la préfecture de police de Paris (DR-PP) le 3 octobre 2019. Djihadisme low cost ubérisé Aujourd’hui, grâce aux technologies de la mondialisation marchande et digitale, n’importe qui peut se radicaliser seul chez lui, mais non sans aide extérieure, ce qui signifie que le « loup solitaire » existe de façon opérationnelle parfois, mais son inspiration vient de documents, vidéos, messages, fréquentations, lieux de prière, ouvrages conçus par des professionnels du terrorisme transnational et les cerveaux islamistes apatrides qui les mobilisent et qui cautionnent religieusement et moralement leurs actes de manière déterritorialisée. Il existe ainsi mille outils destinés à appuyer la diffusion de l’idéologie djihadiste, de modes d’emploi, de magazines (Dabiq, Dar al-Islam, etc.), de manuels, d’appels ou de protocoles... On peut citer par exemple le manuel Management de la sauvagerie d’Abou Bakr Naji, ou les textes d’Abou Moussab al-Souri, Syrien naturalisé espagnol, qui a écrit l’Appel à la résistance islamique mondiale (2003), deux théoriciens liés à al-Qaida et repris par Daesh qui ont mobilisé des centaines de djihadistes européens et internationaux soi-disant loups solitaires, mais en réalité recrutés psychologiquement et idéologiquement par ces inspirateurs suivant le modèle du djihadisme ubérisé. En outre, des documents techniques circulent dans ces milieux et sur le Darknet (voir chapitre IX), pour transmettre la fabrication de bombes artisanales, les méthodes pour se fondre dans la population, les techniques de ruses de guerre et taqiya 17 , bref, un ensemble de modus operandi et stratagèmes prêts à l’emploi à destination des candidats au terrorisme. Les stratèges du djihadisme s’appuient par ailleurs sur les textes sacrés. De cette manière, ils sont parvenus à légitimer et à décomplexer ceux qui commettent des crimes au nom d’Allah. Si un homme allait poser une bombe dans une synagogue après avoir lu Mein Kampf, en se réclamant des idées d’Adolf Hitler, dirait-on de lui qu’il se serait autoradicalisé et qu’il n’aurait rien à voir avec l’extrême droite ? En fait, les organisations islamistes internationales qui diffusent l’idéologie totalitaire et violente de la charia ont une influence mondiale et un réel enracinement théologique. Si l’on veut l’appréhender correctement et lutter efficacement contre les dangers qu’il pose, on ne peut pas réduire le terrorisme islamiste à ses petits soldats, mais il faut s’attaquer à son continuum idéologique évoqué plus haut. Et ce point de contact idéologique ou continuum est crucial dans la lutte antiterroriste, car si les radicalisés pouvant passer à l’acte violent sont estimés en France entre 12 000 et 20 000 (partisans de l’État islamique ou d’al-Qaida), les islamistes plus habituels, adeptes du suprémacisme de la charia et du califat, mais qui évoluent dans un cadre plus institutionnel tout en adhérant aux mêmes fondamentaux, sont quant à eux évalués à au moins 500 000 en France et entre un million et 1,5 million dans l’Union européenne, véritable vivier idéologique pour les recruteurs djihadistes. À cet effet, l’étude de l’Institut Montaigne, menée par Hakim El Karoui, citée précédemment, a démontré que 46 % des musulmans français sont de bons républicains, mais que 25 % sont favorables au voile islamique et à l’essentiel de la charia, et que 28 % d’entre eux ont connu une jeunesse marginale et sont entrés en sécession islamiste, contre la société française. Nous sommes donc confrontés à un véritable problème géopolitique de fracture civilisationnelle : une part croissante de la population musulmane européenne est appelée à s’inscrire en rupture avec la majorité « mécréante » autochtone en l’absence de politiques d’assimilation volontaristes. Ainsi, nos contrées jadis relativement homogènes et pacifiques seront de plus en plus semblables aux pays fracturés ethnoreligieusement et au bord de la guerre civile, comme la Thaïlande du Sud, les Philippines (îles musulmanes du Sud), le Nigeria (Nord musulman contre Sud chrétien), le Liban (chiites versus chrétiens et sunnites, puis Palestiniens), la Tchétchénie (Russes orthodoxes contre musulmans autochtones), la Macédoine (Albanais versus slavo-orthodoxes), etc. Comprenons bien en effet que cette idéologie s’implante de façon privilégiée là où elle trouve un écho, un terreau favorable, donc en pays hétérogène et ouvert aux flux de populations externes, ce qui explique pourquoi des pays comme la Hongrie ou le Japon ne connaissent aucun problème de non-intégration islamiste communautariste et de djihadisme. Situation actuelle/future de Daesh/al-Qaida La perte de territoire de Daesh et sa capacité de frappe en Occident diminuée ces derniers temps peuvent donner un sentiment de victoire. Mais loin d’avoir perdu aujourd’hui toute son influence et ses territoires, on oublie trop souvent que le premier territoire de Daesh, organisation foncièrement antinationaliste, est autant virtuel que celui du capitalisme ubérisé à la McWorld. Il est donc fondamental pour les États de l’investir dans le cadre d’une contre- propagande. Loin d’être des simples barbares illettrés, nombre de djihadistes sont parfaitement à l’aise avec les nouvelles technologies : ils savent notamment parfaitement crypter leurs communications. D’après le Centre d’analyse du terrorisme, en 2016, 80 % de la propagande (islamiste extrémiste) est diffusée sur les réseaux sociaux comme Facebook et Twitter. Les jeunes européens étant pour la grande majorité ultraconnectés, ils sont le terreau idéal des djihadistes pour la propagation de leur idéologie et le recrutement. On notera la même chose au sujet du rôle des femmes. Si elles n’avaient jadis pas le « droit » de s’impliquer, elles sont aujourd’hui autorisées à participer aux opérations suicide de « martyrs » terroristes. Dans les médias, on insiste trop souvent sur les femmes victimes de manipulation des islamistes (bien que cela arrive aussi), en oubliant qu’elles y jouent en fait un rôle très important en participant activement au recrutement et aux actions, la plupart de celles qui ont rejoint l’État islamique en Syrie l’ayant fait en connaissance de cause. Autre nouveauté, les groupes djihadistes ont vu dans la crise sanitaire de la Covid-19 une opportunité pour lancer de nouvelles offensives contre des gouvernements affaiblis d’Afrique (Sahel, Corne est), du Moyen-Orient et d’Asie du Sud-Est. Jusqu’à présent, ni l’État islamique ni aucune des différentes branches d’al-Qaida n’a affiché une vision stratégique claire concernant la pandémie (bien que l’EI ait diffusé des conseils sanitaires à ses militants sur la manière de gérer la maladie en se basant sur les paroles du prophète Mahomet...). Néanmoins, comme l’a déjà fait valoir Crisis Group, les forces djihadistes ont tendance à « exploiter le chaos » (voir l’ouvrage d’Abou Bakr Naji, Gestion de la barbarie 18 ), en gagnant du terrain et des adeptes là où il existe déjà des conflits, ou lorsque des États faibles sont confrontés à des troubles sociaux. L’EI, par exemple, a tiré parti du chaos post-2011 en Syrie pour arriver à un niveau de pouvoir que l’organisation n’aurait jamais atteint autrement. Il est possible que le chaos social et politique qui va probablement s’exacerber en 2022 (révoltes sociales comme les Gilets jaunes débordés par des groupes islamistes, émeutes et pillages perpétrés par les bandes ethniques des quartiers, etc.) offre des occasions similaires pour les djihadistes à mesure que la crise actuelle se poursuit. Inversement, les groupes qui contrôlent des portions importantes du territoire – comme les shebabs en Somalie – pourraient, tout comme les gouvernements, faire face à une montée de la grogne populaire s’ils ne parviennent pas à enrayer l’épidémie de la Covid-19 19 . Daesh n’est pas mort L’État islamique est aujourd’hui une organisation fort différente de ce qu’elle était lors de son accession au pouvoir en 2014 dans des territoires d’Irak et de Syrie où elle a proclamé un éphémère califat. Ceci fut tout de même la première expérience audacieuse visant à créer un « État » néocalifal et qui a fait sortir du mythe ce projet rêvé depuis des décennies par l’ensemble de la mouvance islamiste totalitaire mondiale. Depuis 2017, ce califat étatique territorialisé a été détruit par la Coalition internationale portée par les États-Unis et les efforts parallèles de la Russie, de l’Iran, des forces Kurdes, et des États syrien et irakien. Cependant, l’État islamique, redevenu une organisation transnationale, demeure encore parmi les deux plus puissantes « centrales » terroristes du monde avec al-Qaida. En Irak et en Syrie, le groupe tente de se reconstruire et il s’appuie sur des tactiques de guérilla et des attaques contre les forces de sécurité irakiennes et le régime d’Assad en Syrie. Pendant ce temps, des cellules dormantes attendent de lancer des attaques, comme celle du 21 janvier à Bagdad qui a fait plus de 30 morts, revendiquée par l’État islamique. Concernant la Syrie, la situation est loin de s’améliorer et toute l’action des Occidentaux, encore obnubilés par leur stratégie d’endiguement de la Russie et de ses alliés stratégiques iranien et syrien, semble concourir à faire le jeu de l’islamisme et du djihadisme : en juin 2019, Washington a fait adopter de nouvelles sanctions à travers la loi César (Caesar Syria Civilian Protection Act), extraterritoriale, qui prévoit d’interdire l’entrée aux États-Unis et de barrer l’accès au système financier américain à toute personne, institution ou entreprise soutenant l’État syrien dans la reconstruction ou les hydrocarbures (y compris la vente). Le but de cette stratégie de « pressions maximales sur le pays » est clairement d’empêcher la reconstruction matérielle de la Syrie, et donc de compromettre le volet économique, social et politique du plan de stabilisation du régime d’Assad conçu par Moscou. La Russie a certes gagné la bataille de l’éradication des rebelles islamistes mais ne pourra pas en empêcher durablement leur retour tant que le pays n’aura pas retrouvé le chemin de la croissance. On pourrait presque parler de « terrorisme économique » tant la pression sur la population, qui en est la première victime, est grande. Il est clair que la pauvreté endémique et croissante dans le pays, comme d’ailleurs au Liban voisin, directement impacté, offre un terreau favorable au retour de Daesh, d’al-Qaida et des rebelles frères musulmans qui attendent leur heure. En témoignent d’ailleurs les attentats commis par l’État islamique dans des zones stratégiques de Syrie : le 30 décembre 2020, 37 soldats syriens ont été tués dans une embuscade 20 dans leur bus militaire ; le 3 février 2021, 20 combattants prorégime ont trouvé la mort dans une nouvelle attaque de l’EI 21 . Et globalement, depuis mars 2019, 1 200 soldats syriens ou alliés ont été tués par les djihadistes de Daesh qui sont donc loin d’avoir disparu 22 . Daesh a cependant subi des revers bien réels, mais outre le fait que ses troupes sont encore nombreuses en zone « Syriak », il s’est aussi étendu dans le monde, adaptant ses stratégies à chaque contrée, jusqu’en Afrique subsaharienne, à l’Ouest, et à l’Asie, au Sud-Est. L’EI conserve aussi un trésor de guerre imposant estimé à 3 milliards d’euros, et son réseau, de plus en plus dur à cibler grâce à une digitalisation et à une décentralisation accrue, sera plus difficile à identifier et à combattre. L’erreur des pays occidentaux serait de préjuger de la défaite ou de la victoire de la mouvance islamiste (politique ou djihadiste) sur la base d’une perte de territoires ou de pouvoir (coup d’État du maréchal Abdel Fattah al-Sissi renversant l’ex-président égyptien frère musulman Mohamed Morsi en novembre 2013). Ce serait oublier que nous sommes confrontés à un phénomène totalitaire prosélyte dont le premier but est de propulser l’idéologie islamiste, de gré ou de force, dans une optique de conquête des esprits qui prime sur celle des territoires, en tout cas dans une phase préparatoire. Il est intéressant de relire les propos prononcés par Abou Mohammed al-Adnani peu avant sa mort en 2016. Le cerveau des attentats et porte-parole de Daesh, selon lequel le « territoire est secondaire » et l’idéologie (charia-califat) première, dit ainsi : « Notre but, notre victoire ou notre échec ne se mesurent pas à la conquête ou à la perte d’une ville. [...] Notre système d’action est essentiellement de répandre la Charia et de suivre le Coran. Tant que notre saint Coran sera lu et se répandra, notre vraie conquête continuera et nous ne serons jamais vaincus 23 . » L’anthropologue franco-américain Scott Atran, spécialiste du djihadisme, en conclut que la victoire de Daesh, en dépit de ses pertes de territoires, consiste à « avoir persuadé des millions de personnes que la charia est la seule façon légitime de gouverner ». Il est en effet indéniable que cette idée a progressé dans le monde, y compris auprès des jeunes musulmans de France. Dans la même veine, on peut aussi relire les propos du précurseur de l’État islamique, ex-membre d’al-Qaida en Irak, tué en 2006, Abou Moussab al-Zarqaoui : « Nous ne combattons pas ici (Irak) pour un morceau de terre, ni pour des frontières imaginaires tracées par Sykes-Picot, de même que nous ne combattons pas pour qu’un taghout (“tyran-apostat”) arabe remplace un taghout occidental. Notre djihad est bien supérieur à tout cela, nous combattons pour que la parole d’Allah soit la plus haute et que la religion soit tout entière à Allah 24 . » La mort d’al-Baghdadi, n’a pas fondamentalement changé la donne : l’organisation s’est immédiatement dotée d’un nouveau chef/calife en la personne du Turkmène irakien, Amir Mohammed Saïd al-Salbi al-Mawla, surnommé Abou Omar al-Turkmani, issu de la ville de Tal Afar, où nombre d’ateliers d’explosifs ont préparé les attentats planifiés par Daesh durant des années. Abou Omar, alias le Turkmène 25 , a d’ailleurs joué un rôle majeur dans le génocide de la minorité kurdophone irakienne yézidie et les trafics d’esclaves sexuels. Le fait que la direction de l’EI ne soit plus arabe mais turkmène, et que le frère même de ce nouveau calife, réfugié en Turquie, soit à la tête de réseaux de rebelles islamistes turkmènes agissant en Syrie, en Irak et en Libye (le « Front turkmène d’Irak », coalition de formations turkmènes fondée en 1995 avec le soutien d’Ankara), montre une évolution non exclusivement arabophone de la direction de l’organisation qui rompt ainsi avec trente ans de direction arabe des groupes djihadistes internationaux du Moyen-Orient. Cette évolution est d’autant plus significative que la Turquie d’Erdoğan, elle-même en voie de radicalisation idéologique panislamiste ou plutôt « néo-ottomane », a soutenu Daesh en Syrie (2014-2016), face à l’ennemi commun kurde, puis le Hamas palestinien à Gaza et al-Qaida en Syrie. Ankara a d’ailleurs parfaitement su instrumentaliser ces groupes combattants islamistes (dont nombre d’anciens d’al-Qaida/al-Nosra) en zone syro-irakienne pour alimenter ses nouveaux fronts ouverts en Libye ou dans le Caucase. On peut citer notamment les divisions Sultan Mourad, Hamza, Muntazir Billah, Suleyman Shah, qui ont fourni des mercenaires pour aller combattre aux côtés des milices islamistes dans l’ouest de la Libye face au nationaliste Khalifa Haftar et avec les forces azéries contre les Arméniens dans le Haut-Karabagh. Parallèlement, le nouveau calife Abou Omar al-Turkmani s’emploie actuellement à transformer les 4 000 djihadistes actifs en Irak et les 3 800 encore présents en Syrie en troupes de guérilleros capables de reprendre des territoires dès que des fenêtres d’opportunités s’ouvriront. Daesh conserve un trésor de guerre et de dizaines de milliers de combattants djihadistes D’après le ministère de la Défense américain, Daesh conserverait entre 15 500 et 25 000 membres, en Irak, principalement, sans compter les franchisés d’Afrique subsaharienne et d’Asie. En juin 2018, l’organisation contrôlait toujours environ 2 % du territoire en Irak et en Syrie, et elle essaierait de regrouper ses membres pour y créer des cellules dormantes en attendant un retour en force. Son noyau territorial est surtout concentré dans l’est de la Syrie, dans la vallée du Moyen-Euphrate, dans des régions rurales du sud de la province de Hasakah, et dans une enclave du bassin du Yarmuk, au sud de Damas. L’État islamique maintient des réseaux clandestins et ses djihadistes combattent principalement en petits groupes de 3 à 5 personnes. L’EI est devenu plus internationaliste qu’al-Qaida et s’est en quelque sorte spécialisé dans « l’ennemi lointain », d’où la plus grande proportion d’attentats commis par Daesh en Occident par rapport à al-Qaida, quant à elle focalisée sur « l’ennemi proche » (gouvernements musulmans « traîtres », apostats, et les forces occidentales « occupant » des pays musulmans). En outre, depuis la chute de l’État islamique en 2017, nombre d’anciens d’al-Qaida devenus membres de l’EI sont retournés dans le giron d’al-Qaida, ce qui n’est pas sans créer des tensions entre les deux organisations, même si l’on observe aussi des cas d’hybridations selon les théâtres, notamment en Afrique sahélienne. L’objectif d’islamisation de l’humanité demeure toutefois commun aux deux organisations, mais les modèles diffèrent : si l’État islamique veut absolument recréer le califat transnational et abolir les frontières entre États musulmans, al-Qaida remet à plus tard le but ultime du califat mondial et privilégie entre-temps une lutte plus directe dans des cadres nationaux. Al-Qaida redevenue la plus puissante organisation terroriste Après la chute de l’État islamique, al-Qaida, moins sous les radars que l’EI, en a profité pour se renforcer. Elle a toujours été présente en Syrie, via le groupe Jabhat al-Nosra, devenu Hayat Tahrir al-Sham, et début 2018, un nouveau groupe fidèle à al-Qaida a fait son apparition en Syrie sous le nom de Tanzim Hurras ad-Din, lequel regroupe entre 2 000 et 3 000 combattants. Al-Qaida possède des implantations plus anciennes et plus importantes que Daesh, au Moyen-Orient, au Khorasan, au Sahel, au Yémen, en Libye ou en Somalie. Lors d’une opération américaine dans la région Afghanistan/Pakistan, les forces spéciales américaines ont tué Hamza Ben Laden, fils préféré d’Oussama Ben Laden, le 14 septembre 2019, présenté comme l’héritier de l’organisation. De la même manière, le supposé numéro deux d’al-Qaida, inculpé aux États-Unis pour des attentats perpétrés contre des ambassades américaines en Afrique de l’Est en 1998, Abdullah Ahmed Abdullah, a été assassiné lors d’une opération secrète dans les rues de Téhéran au mois d’août 2020. Abdullah, alias Abou Mohammed al-Masri (« Abou Mohamed l’Égyptien »), était présenté comme un successeur possible d’Ayman al-Zawahiri, l’actuel chef d’al- Qaida, et se trouvait en Iran depuis 2003. Et le 4 juin 2020, le leader d’al-Qaida au Maghreb islamique, l’Algérien Abdelmalek Droukdel, a lui aussi été tué dans le nord du Mali, parallèlement à la capture, mi-mai, d’un cadre important de l’État islamique au Grand Sahara (EIGS). Toutefois, la mort de hauts cadres du noyau central historique d’al-Qaida n’affecte pas le reste de la nébuleuse, en réalité reliée par une idéologie, un projet et des intérêts partagés, mais composée de franchisés et franchiseurs. L’organisation est toujours forte de plus de 50 000 à 70 000 membres dans le monde, dont 11 000 rien qu’en Syrie et 7 000 dans le seul Sahel. Elle fonctionne comme une centrale qui rédige des notes, des appels, suggère des alliances, émet des fatwas et consignes, conçoit des kits opérationnels, sans intervenir sur l’aspect tactique des opérations, se contentant de définir la stratégie globale que les affiliés et groupes « franchisés » appliquent comme ils l’entendent. al-Qaida au Maghreb islamique reste la filiale la plus active, aux côtés d’al-Qaida dans la péninsule Arabique (Aqpa, basée au Yémen). Si les États-Unis retirent des milliers de soldats d’Afghanistan, al-Qaida est également bien placée pour profiter du vide qui en résulte et régénérer son réseau dans toute l’Asie du Sud. L’organisation, toujours dirigée par l’un de ses fondateurs historiques, Ayman al-Zawahiri, a survécu pendant plus de trois décennies grâce à la capacité du groupe à innover en affinant constamment des tactiques, des techniques et modus vivendi caractérisés par une très forte capacité d’adaptation selon les circonstances, les contextes culturels et les zones géographiques. Ses affiliés à travers le monde continuent de démontrer leur capacité à lancer des attaques spectaculaires, comme en témoignent les attentats perpétrés le 2 janvier 2021 au Niger (cinquante-six villageois tués), par une mouvance d’al-Qaida au Sahel, le Groupe de soutien à l’islam et aux musulmans (en abrégé GSIM 26 ), puis au Mali, contre deux militaires français : la sergente Yvonne Huynh et le brigadier Loïc Risser, du 2 e régiment de hussards de Haguenau (Bas-Rhin). L’Asie du Sud, nouvel horizon des centrales djihadistes En Asie du Sud-Est, principalement aux Philippines et en Indonésie, alimentées par la pauvreté, les tensions entre les divers groupes ethnoreligieux, les organisations terroristes se développent et recrutent de plus en plus depuis une dizaine d’années, souvent en se greffant sur des mouvements préexistants séparatistes islamistes qui sont ainsi franchisés. Aux Philippines, l’organisation terroriste Abu Sayyaf a été très tôt en lien avec al-Qaida et a même été financée à ses débuts par l’organisation caritative de Mohammad Jamal Khalifa, un beau-frère d’Oussama Ben Laden. Al-Qaida est l’organisation terroriste la plus active dans cette zone, même si Daesh y progresse depuis 2016. Parmi les principales attaques survenues au cours des deux dernières décennies, on peut mentionner celles perpétrées par Abou Sayyaf, le 27 février 2004 contre un ferry, aux Philippines (116 morts), et le 10 juillet 2007 – en coopération avec le Front Moro islamique de libération (14 marines philippins tués, à Basilan, dont 10 décapités) ; le 27 janvier 2019 dans la cathédrale de Jolo aux Philippines (20 morts et 81 blessés), le double attentat à la bombe du 24 août 2019, à Jolo (10 morts), ou encore celui du 17 avril 2020, lorsque, en pleine pandémie, 40 combattants de Daesh et Abu Sayyaf ont attaqué des soldats toujours à Jolo (12 morts). Quant à Daesh, initialement présente surtout au Moyen-Orient, elle a commencé à migrer vers l’Asie du Sud-Est après sa défaite en Syrie, montrant ainsi que l’organisation est capable de s’implanter partout dans le monde, en se greffant sur des groupes islamistes locaux ou en les infiltrant puis en les divisant. De nombreux militants d’Abu Sayyaf ont ainsi fait allégeance à l’État islamique. De même, 700 ressortissants indonésiens ont rejoint Daesh en Syrie pour y faire le djihad. La plupart ont répandu leur radicalisme dans leur pays à leur retour. L’État islamique comprendrait minimum 500 membres actifs aux Philippines, sans compter les autres groupes djihadistes armés rivaux ou associés, ce qui est conséquent pour la seule partie musulmane du sud des Philippines. En octobre 2017, un épisode marquant a démontré la montée en force de Daesh dans la région du Mindanao, au sud du pays, lors de la bataille de Marawi (ville à majorité musulmane) qui a opposé des combattants de l’État islamique aux forces gouvernementales philippines. Avec des scènes dignes de la guerre en Syrie, l’affrontement a duré cinq mois et provoqué la mort de 1 132 personnes (920 islamistes, 165 soldats et 47 civils) ainsi que le déplacement de 360 000 autres. Des centaines, voire des milliers de civils sont restés piégés dans la ville assiégée pendant des mois, retenus en otages ou pris entre deux feux 27 . Rappelons qu’en septembre 2017, dans le cadre de l’opération Pacific Eagle-Philippines (OPE-P), une campagne antiterroriste menée par le commandement Indo-Pacifique des États-Unis a été lancée pour soutenir le gouvernement philippin et ses forces militaires dans leurs efforts pour contrer l’État islamique et autres organisations djihadistes philippines. En avril 2020, sur fond de Covid-19 et de tensions sociales liées, la Defense Intelligence Agency (DIA) américaine a répertorié des messages islamistes sur les réseaux sociaux appelant à attaquer ceux qui respectent les mesures sanitaires du gouvernement philippin, et qui menacent les autorités de violence si les mosquées n’étaient pas autorisées à rouvrir 28 . Les terroristes ont ainsi profité de la crise sanitaire pour tenter de gagner du terrain : ainsi, le 26 juin 2020, lorsque la police a tué quatre militants de l’État islamique à Parañaque, près de la capitale Manille, une cellule dormante de l’EI a été démantelée, dont un membre impliqué dans l’attaque de la cathédrale de Jolo en 2019. Bien que moins touchée par le terrorisme, la Malaisie est également gagnée par l’islamisme, notamment l’État du Kelantan, dirigé par un parti islamiste qui a implanté les législations issues de la charia : les cinémas et discothèques y sont interdits, les couples ne peuvent pas se tenir la main en public et l’administration introduit les coups de canne en public pour sanctionner le non-respect de la loi islamique 29 ... Le djihadisme en pleine ascension au Sahel Le drame que traverse l’Afrique, frappée de plein fouet par le djihadisme, rappelle aux Occidentaux restés prisonniers de l’eurocentrisme que le totalitarisme islamiste ne combat pas seulement l’Occident « croisé », mais d’abord les pays musulmans et du Sud : l’Afrique paie de loin le plus lourd tribut depuis la chute de Daesh en Irak/Syrie. Les chiffres parlent d’eux-mêmes : 4 000 morts rien qu’en 2019 dans la zone sahélienne dite « des trois frontières » (Niger-Burkina-Mali), 15 000 au Nigeria depuis 2012, 5 000 en Afrique dans la Corne et l’Afrique australe depuis trois ans... Bien que le Nigeria soit la plus importante économie de l’Afrique – l’un des plus grands producteurs de pétrole de l’OPEP, et qui possède une élite politique compétente –, l’armée nationale est dépassée par l’insurrection du groupe Boko Haram dans le Nord et par ses incessantes attaques. Boko Haram, qui signifie « interdire ce qui est occidental », ne cesse de gagner du terrain. Rendue célèbre en 2014 lorsqu’elle a kidnappé plus de 200 jeunes filles en 2014, l’organisation a depuis lors considérablement élargi son assise au Nigeria en s’appuyant sur la pauvreté du Nord-Est musulman revanchard vis-à-vis du Sud chrétien, riche en pétrole, mais aussi sur la diffusion depuis les années 1990 du fanatisme salafiste, qui a souvent commencé par l’islamisation « institutionnelle » à l’instigation de prédicateurs revenus d’Arabie saoudite. Depuis l’ascension médiatique de Boko Haram, en 2014, des centaines d’églises catholiques ont été incendiées dans ces États du Nord-Est ; 80 000 chrétiens ont pris le chemin de l’exil pour gagner des États du Nigeria non musulmans. 64 000 ont dû trouver refuge au Cameroun, ce pays subissant aussi des attaques régulières du groupe... Depuis les années 2005, les attentats les plus violents commis par al-Qaida ont eu lieu au Sahel, où des dizaines de milliers de combattants appuyés par des tribus et réseaux salafistes ont plongé dans le chaos les faibles États du G5 Sahel (Mali, Tchad, Burkina, Mauritanie et Niger). Des milliers de civils ont été tués. Près de 3 millions de personnes ont dû fuir leurs domiciles au Mali, Niger et Burkina Faso, principaux pays touchés. Les troupes françaises de l’opération Barkhane, dont les effectifs (5 100 soldats en 2020, devant être réduits à 3 000 en 2022) sont trop faibles pour pacifier une zone grande comme l’Union européenne, peinent à endiguer la progression constante du djihadisme, d’une part, et de l’islamisme politique salafiste, de l’autre, faute de solution politique. On retrouve toujours ici le continuum idéologico-politique évoqué plus haut entre islamistes politiques et djihadistes. Dans les anciennes colonies françaises, la situation ressemble de plus en plus à celle du Nigeria : depuis la guerre de 2012, les djihadistes venus du nord du Mali (Kidal) ne cessent de gagner du terrain vers le centre et le sud du pays et les États voisins : Burkina Faso, Niger, Nigeria, Mali, Bénin, Cameroun, Côte d’Ivoire. Avec leur folle intervention contre le régime de Kadhafi en 2011 – qui a permis aux mercenaires présents en Libye d’acheminer armes et combattants dans tout le Sahel –, la France, la Grande-Bretagne et les États-Unis ont contribué à l’expansion de ce fléau en Afrique noire. Les attentats et prises d’otages dans la région des « trois frontières », là où une mine artisanale a tué, le 2 janvier 2021, deux soldats français à Ménaka (Mali), sont quasi quotidiens. Le processus de « sahélisation » d’Aqmi, à l’origine maghrébine, s’est accentué depuis la fin des années 2010 et la guerre civile malienne : la quasi-totalité de ses chefs et de sa logistique a été transférée de l’Algérie vers le Sahel. Le génie de l’homme fort d’Aqmi au Sahel, le Touareg malien Iyad Ag Ghali, ancien du Tabligh et des milices libyennes, fondateur d’Ansar Dine, a été de regrouper des mouvements djihadistes, touaregs, arabes et peuls noirs- africains nomades de la région au sein d’une structure unitaire nommée GSIM. Selon le Centre d’études stratégiques de l’Afrique lié au ministère de la Défense américain, et d’après les forces françaises présentes sur place, le Sahel est aujourd’hui la zone où le terrorisme islamiste connaît la croissance la plus rapide. Dans ce contexte, déjà très chaotique, le Burkina Faso a subi depuis la seule année 2015 plus de 100 attentats djihadistes de plus en plus meurtriers, perpétrés notamment par Aqmi, Ansar Dine, le Mouvement pour l’unicité du djihad en Afrique de l’Ouest (Mujao), Al-Mourabitoune, le GSIM, l’État islamique au Grand Sahara, la Katiba Macina, ou encore Ansar-ul-Islam, lié à Daesh. On retiendra l’attentat du 2 mars 2018 contre l’état-major général des armées et l’ambassade de France à Ouagadougou, revendiqué par le GSIM, qui a fait 16 morts. Ou encore celui du 13 août 2017, lorsque des djihadistes ont ouvert le feu sur un restaurant du centre de Ouagadougou (19 morts). Dans tout le continent africain, on constate une augmentation de tensions entre les communautés. Le terrorisme islamiste progresse non seulement en pays musulmans (Mali, Burkina Faso), mais aussi de plus en plus en pays mixtes chrétiens/musulmans, comme on le voit au Nigeria, bien sûr, et même, ce qui est nouveau, en Côte d’Ivoire, pays certes tiraillé entre tribus antagonistes et entre musulmans au nord et chrétiens au sud, mais où les attaques djihadistes et la percée de l’islam politique sont très récentes. On se souvient de l’attentat du 13 mars 2016 qui fit 19 morts (dont 3 soldats ivoiriens) dans un quartier touristique de Grand-Bassam – lieu de tourisme très prisé classé au patrimoine mondial de l’Unesco. Comme ailleurs, les lieux touristiques sont, avec les militaires des pays du G5 Sahel et les symboles gouvernementaux, des cibles privilégiées des djihadistes. Pour ce qui est du Bénin, de plus en plus infiltré par le djihadisme venu du Burkina Faso voisin, on rappellera que les otages français libérés le 10 mai 2019 par les forces spéciales du COS s’étaient aventurés dans le cadre d’un safari dans le parc du Pendjari (Bénin), l’un des plus beaux de l’Afrique de l’Ouest. Comme en Égypte (Nil, Charm el-Cheikh, Alexandrie, etc.), en Tunisie (attentats du Bardo et sur les plages), ou ailleurs, la stratégie des groupes djihadistes est de paralyser le tourisme en déstabilisant la zone. C’est ainsi que des pays comme le Bénin, qui tentent de développer leur tourisme, la Côte d’Ivoire, le Ghana et le Cameroun, sans oublier le Nigeria, voient leurs côtes et leurs zones frontalières de plus en plus visées. Le 2 janvier 2021, le pire attentat jamais commis par des djihadistes au Niger contre des civils a fait 100 morts dans 2 villages de l’Ouest (Tchoma Bangou et Zaroumadereye). Notons que les attentats et prises d’otages dans la région Sahel en zone francophone ont presque toujours lieu dans le secteur des « trois frontières ». Face à ce fléau hybride qui unit fanatisme, rivalités ethnotribales, délinquance et séparatismes, la France, venue au secours de l’État malien en janvier 2013 (opération Serval), puis l’opération Barkhane (revue à la baisse par Emmanuel Macron et qui a délaissé le Nord du Mali pour la zone des trois-frontières, plus exposée, notamment au Niger) apparaissent de moins en moins légitimes aux yeux des habitants. Nombre d’entre eux manifestant même à Bamako ou Gao aux cris : « La Russie plutôt que la France... » Les islamistes ont une vraie stratégie, contrairement à leurs ennemis et à l’Occident... D’après l’expert du djihadisme au Sahel, Drissa Kananbayé, les groupes djihadistes ont une vraie stratégie régionale d’expansion, et leurs attaques suivent un plan de conquête réfléchi. Il décline cette stratégie en trois actes : 1/ affamer, en volant le bétail et brûlant les vivres des habitants des villages abandonnés par des forces de l’ordre ; 2/ acculturer, en détruisant les traditions africaines préislamiques animistes et le soufisme-maraboutisme, considérés apostats ; 3/ soumettre les villageois qui, excommuniés et culpabilisés par les uns, attaqués et terrorisés par les autres, finissent même parfois par rejoindre les djihadistes. Grâce à cette stratégie qui pousse les villageois à gagner des villes, poursuit l’expert, les djihadistes étendent leur contrôle et leur économie criminelle. Ils font d’une pierre deux coups, en terrifiant les personnes exilées en ville où les islamistes politiques les fanatisent idéologiquement. Kananbayé rappelle que leur but n’est pas de sortir de la pauvreté, mais d’y plonger les habitants dans le cadre d’un chaos d’ailleurs théorisé par l’idéologue du califat, Abou Baker Naji (voir infra), très prisé dans la djihadosphère. Kananbayé rappelle que les imams wahhabites formés en Arabie saoudite complètent le travail des djihadistes sur le théâtre urbain : le célèbre imam malien Mahmoud Dicko, chef salafiste endoctriné à Médine, qui a présidé le Haut Conseil islamique du Mali (HCIM) et formé des milliers d’adeptes, incarne parfaitement cette alliance objective entre « coupeurs de têtes » et « coupeurs de langues 30 ». Le 26 mars en 2018, il remplit un stade de 100 000 personnes et fit annuler un projet de Code de la famille qui aurait amélioré le statut légal des mères isolées. En juin 2020, il a contribué à faire chuter le président Ibrahim Boubacar Keïta et créé un mouvement islamiste, la Coordination des mouvements, associations et sympathisants (CMAS) aux relations très ambiguës avec les djihadistes. Pour l’expert, la mainmise des islamistes se vérifie à travers la construction sauvage de mosquées à tous les coins de rue sur financement des pays du Golfe pendant que les populations meurent de soif et de faim. Nomades musulmans peuls fuyant la désertification en razziant les sédentaires du Sud : un double mouvement de fond climatique et civilisationnel Le problème (djihadiste) de fond en Afrique subsaharienne est également alimenté par le phénomène d’exode des nomades africains musulmans des ethnies peuls ou foulani, venues du nord et en proie à la sécheresse (la pluviométrie a en effet chuté de 20 % ces quarante dernières années), qui descendent de plus en plus vers le centre et le sud en pays mixte musulmans/chrétiens ou majoritairement non musulmans. Parallèlement, l’autre grand fléau concret de l’Afrique subsaharienne, la surnatalité incontrôlée (le Sahel est la seule région du monde qui n’a pas entamé sa transition démographique, voir chapitre IX), conduit les agriculteurs à rechercher de nouvelles terres. Un autre phénomène amplificateur est le délitement de l’État, corrompu et mal géré. On observe en particulier ce phénomène au Nigeria, au Mali, au Burkina Faso, au Niger ou en République centrafricaine. Les phénomènes de razzias perpétrées par des musulmans nomades du Nord sur des sédentaires du Sud-Est, une vraie tendance lourde. Dans leur pérégrination visant à retrouver du pâturage pour leur bétail, ces prédateurs nomades attaquent les villages des chrétiens, animistes ou musulmans sédentaires non peuls hostiles à l’islamisme (maraboutiques). Ces razzieurs sont « bénis » par des prêcheurs islamistes qui s’appuient sur la tradition du djihad et de la razzia contenue dans la charia et héritée des empires islamistes peuls du passé dits « du Macina ». Fondée en 2015 et sévissant surtout en milieu peul dans la région de Mopti, la « Katiba Macina » est le groupe terroriste le plus redoutable de la région. Dans l’imaginaire peul, « l’empire du Macina » (également nommé la Diina, ou « religion », en arabe mal prononcé), ancien État islamiste peul qui régna au XIX e siècle dans l’ouest du Mali, une partie du Burkina Faso et de la Mauritanie avec Mopti pour capitale, représente l’âge d’or où les Peuls n’étaient pas des minorités marginalisées par des États-nations postcoloniaux, mais des dominateurs 31 ... Du fait de cet héritage, les Peuls vivent comme les tenants d’un « islam pur », ce qui les rend perméables à la propagande salafiste, même lorsqu’ils viennent de traditions malikites et soufies africaines. Comme les idéologues de Daesh voulant rétablir les califats arabes (ommeyyade et abbasside) en Syrie et en Irak, les djihadistes maliens peuls sont nostalgiques de cet empire peul du Macina qui lançait des djihads pour « purifier » les sociétés musulmanes. Le leader de l’actuel groupe Macina ou Front de libération du Macina, Hamadoun Koufa, nom de guerre d’Amadou Diallo, est d’ailleurs lui-même un prêcheur peul d’origine soufie qui a été « salafisé » – radicalisé au contact du groupe Ansar Dine. La Katiba Macina a pour objectif de faire sécession de l’État malien dans son fief au centre du Mali, à l’instar des djihadistes berbéro-arabes du nord du pays. Montée en puissance depuis mars 2017, affiliée à Ansar Dine, puis au GSIM, la Katiba Macina sévit dans diverses communes de la région de Gao depuis 2014-2015. C’est elle qui perpètre le plus grand nombre d’attaques terroristes au Mali, au Burkina Faso, au Niger et à la frontière béninoise. Et bientôt en Côte d’Ivoire, au Ghana, au Togo, en Guinée Conakry et équatoriale, puis partout où des groupes tribaux peuls sont perméables au djihadisme. Dans cette partie du monde, le djihadisme est un phénomène « géocivilisationnel » de fond, qui répond à une « tradition djihadiste » ancestrale, d’où le recrutement très « endogène » en Afrique subsaharienne (presque aucun cas de « volontaires » djihadistes européens). Certes, tous les Peuls ne sont pas islamistes et encore moins djihadistes. Et l’amalgame entre Peuls et djihadistes – à l’origine de représailles sommaires contre les minorités peules de la part des pouvoirs et tribus sédentaires – est instrumentalisé par les groupes djihadistes dans le but de recruter. Extension du domaine du djihadisme : de la Somalie à l’Afrique australe De l’autre côté de l’Afrique, le groupe djihadiste somalien Al-Shabaab (« La jeunesse »), lié à al-Qaida, proche de la matrice géopolitique salafiste qu’est la péninsule Arabique, lutte depuis des années pour la création d’un État islamique salafiste en Somalie. Le groupe a régné un temps sur la capitale, Mogadiscio, et d’autres régions, mais la campagne militaire soutenue par l’Union africaine l’a affaibli territorialement. Sa présence demeure toutefois redoutable sur une partie importante du territoire, et aux frontières des pays voisins (Éthiopie, Kenya). Autre preuve du continuum idéologico-théologique du djihadisme, Al-Shabaab a incubé dans le giron d’Al-Ittihad al-Islami, une mouvance de prédicateurs salafistes formés en Arabie saoudite et au Yémen dans les années 1990 qui a été financée et poussée à la violence par Oussama Ben Laden, alors établi au Soudan. Le groupe a uni ses forces avec l’Union des tribunaux islamiques qui s’empara avec lui de la capitale en juin 2006. Ce succès a contribué à répandre le virus djihadiste dans les régions musulmanes voisines de l’Éthiopie honnie car à majorité chrétienne. Suite à l’intervention militaire de cette dernière, fin 2006, pour évincer les djihadistes de Mogadiscio à la demande du gouvernement de transition de la Somalie, les Shabaab ont pris la place des tribunaux islamiques et sont devenus une sorte de guérilla qui contrôle des bouts de territoire au centre et au sud. Un des pays les plus récemment ciblés par le djihadisme en Afrique est le Mozambique, État lusophone, majoritairement catholique, mais qui est un lieu stratégique : le canal du Mozambique étant l’une des principales routes du trafic maritime international. Frontalier de la Tanzanie et riverain de l’archipel des Comores, le pays compte 20 % de musulmans, répartis dans le Nord-Est très pauvre. Profitant de la faiblesse de l’État, l’Arabie saoudite y a exporté dans les années 1980-1990 son salafisme-wahhabite, comme au Mali. En 1998, à la fin de la guerre civile du Mozambique, des jeunes formés dans les universités islamiques saoudiennes 32 ont fait émerger le mouvement Ansar Al-Sunna du Mozambique, appelé par le peuple « Shabbabs ». Ce dernier a prêté récemment allégeance à l’État islamique, contrairement à ses homonymes somaliens. Al-Ansar/shebabs est apparu sur le devant de la scène en 2015, dans la province à 60 % musulmane du Cabo Delgado, au nord du pays, très pauvre et revancharde vis-à-vis des chrétiens majoritaires. Il commet sa première attaque d’envergure en octobre 2017 : il assaille le port de Mocimboa da Praia, s’emparant de postes de police, d’armes et de munitions. Ses attentats, revendiqués par Daesh, sont toujours plus meurtriers : 2 500 victimes en trois ans et plus de 500 000 déplacés depuis juin 2019. Lors d’une attaque djihadiste, le 7 avril 2020, 50 civils villageois ont été exécutés par balles et décapités dans un village, et un autre attentat perpétré en novembre 2020 a provoqué la mort de 52 adolescents retrouvés décapités. Le groupe se finance via les trafics de bois et de rubis, qui généreraient 30 millions de dollars annuels, et – comme Aqmi à l’ouest avec la cocaïne venue d’Amérique latine via le golfe de Guinée – en prélevant des « taxes » sur l’acheminement de l’héroïne venue d’Orient vers l’Europe et l’Afrique du Sud, via Cabo Delgado. Le groupe se finance aussi par donations électroniques... Face à ce péril, Mozambicains et Tanzaniens ont signé, fin 2020, un accord de coopération militaire pour s’organiser face aux djihadistes qui compteraient dans leurs rangs des Somaliens, des Congolais, des Rwandais et des Burundais, et même, fait nouveau, une centaine de Sud-Africains, preuve de l’internationalisation croissante de la menace et de son adaptation à la mondialisation. Le terrorisme islamiste : guerre psychologique et propagande par l’action Attardons-nous maintenant sur les volets idéologico-psychologiques de la stratégie des djihadistes. Selon l’universitaire américain Walter Laqueur, spécialiste de la violence politique, la stratégie du terrorisme consiste à faire de la violence et de la médiatisation qu’elle déclenche une forme de publicité gratuite, une façon de répandre l’idéologie qui anime les terroristes. La finalité de la propagande, qu’elle soit « pacifique » ou « terroriste » (« par l’action » ou « par les faits »), vise selon lui avant tout à influencer et à endoctriner, de sorte qu’il convient d’analyser le djihadisme non pas comme une idéologie, mais comme un simple outil (ou une arme) utilisé pour promouvoir et diffuser une idéologie qui, elle, peut avoir aussi des adeptes non-terroristes et institutionnels. Walter Laqueur précise que « le succès d’une opération terroriste dépend presque entièrement de l’importance de la publicité qu’elle obtient 33 ». L’objectif est d’amener l’adversaire-mécréant-apostat à penser qu’il est en position de faiblesse radicale (« à armes égales, celui qui aime la mort l’emporte sur celui qui la craint ») et qu’il a par conséquent intérêt à se rendre de façon anticipatoire afin d’être épargné dans le futur (en cessant de blasphémer, de réclamer l’intégration des musulmans, de critiquer l’islam, en acceptant l’application graduelle de la charia, et en combattant toujours plus « l’islamophobie » à mesure que le djihadisme frappe, etc.). Pour Laqueur, l’assassinat n’est donc qu’un moyen parmi tant d’autres pour faire de la propagande ou du prosélytisme politico-religieux. En latin, propaganda vient de propagare, qui signifie littéralement « ce qui doit être propagé » : le terrorisme de propagande cherche à modifier les perceptions et comportements des personnes ciblées dans une logique de propagation d’une idée-force, celle de la nécessité de se soumettre à la charia ou de se convertir, à terme, ne serait-ce que pour conjurer la « promesse du pire ». Les médias sont la « cible indirecte » privilégiée des terroristes. Les attaques djihadistes sont donc tout sauf le résultat d’une violence aléatoire, « nihiliste ». Elles obéissent au contraire à une logique et à une planification minutieuses, fruits d’une vision idéologique précise. Comme on l’a vu pour nombre de groupes djihadistes des zones sahélienne ou sud-est asiatique, il est vrai que nombre de microcellules terroristes sont des « franchisés » sui generis n’ayant presque pas de lien de subordination avec al-Qaida ou Daesh, voire des groupes autoradicalisés, des marginaux ou des bandes criminelles que les cerveaux djihadistes récupèrent par opportunité. Ces derniers ne sont jamais étrangers à la mobilisation de leurs émules, même les plus indirectes, car ce sont eux qui mettent à disposition sur le Net des « kits » de fabrication artisanale de bombes ou des appels théologiquement référencés à « tuer les mécréants de n’importe quelle manière, n’importe où et n’importe quand ». Il ne faut pas non plus sous-estimer ces messages idéologiques et mobilisation directe, même à distance, car les contenus et messages s’appuyant sur des hadiths et sur un corpus de l’islam sunnite indiscutés ont une réelle « force légitimante » et mobilisatrice. À la manière des anciens compagnons de route ou activistes favorables à l’ex-URSS, aux régimes révolutionnaires de Castro, de Mao Zedong, ou fascinés par le romantisme violent du Che, sans oublier les Allemands et Européens subjugués par le III e Reich, ceux qui vont commettre des carnages terroristes répondent aux appels idéologiques lancés par des professionnels de la propagande, eux-mêmes appuyés par des entités, partis ou États ayant des objectifs géopolitiques. Dans le cadre de leurs textes de référence qui circulent dans la « djihadosphère », comme le fameux « appel mondial à la résistance islamique », de l’idéologue Abou Moussab al-Souri, les « fanatiseurs » professionnels mobilisent à distance des personnes qui ne leur demandent pas leur avis hiérarchique pour passer à l’acte par la suite, puisqu’ils y sont invités (« djihadisme d’inspiration »). Ce manque de lien pyramidal et hiérarchique ne veut pas dire que les futurs terroristes recrutés sur le Web ou en prison sont « moins islamistes » que ceux recrutés par des imams dans des lieux de culte officiels. Réduire le terrorisme djihadiste à la réalité asociale de délinquants ou déséquilibrés fanatisés via des réseaux sociaux, dans des milieux carcéraux ou des banlieues problématiques (voir supra) pour en conclure qu’il n’y a « rien d’islamique », ne permet ni de comprendre les objectifs du djihadisme, ni de prouver que ce terrorisme n’aurait « rien à voir avec l’islam ». Les musulmans libéraux, soufis ou réformistes issus des élites sécularisées, qui dénoncent au péril de leur vie ou de peines de prison lourdes la pénalisation du blasphème, un des piliers de la charia et de sa « violence sacrée », dans les pays musulmans ou ailleurs, ne sont pas plus « islamiquement corrects » que ceux qui veulent imiter les compagnons du Prophète en embrassant le djihad conquérant. Les cerveaux djihadistes recrutent des délinquants pour leur aptitude à la violence Les entités et gourous salafistes-djihadistes, qui recrutent sur le Web, dans les prisons, les mosquées ou parmi des fratries de voyous des cités, savent canaliser « l’expérience » des malfrats dont la violence est utile, à l’instar des imams radicaux de l’école coranique de Zarka qui formèrent le voyou Abou Moussa al-Zarqaoui 34 , devenu plus tard chef d’al-Qaida en Irak et précurseur de l’État islamique. Zarqaoui avait été repris en main, sur demande de sa mère, par un imam fanatique, al-Maqdissi, lequel condamnera bien sûr Daesh après avoir fanatisé ses monstres, notamment entre l’Afghanistan et l’Irak... Le continuum est là. Les spécialistes de la terreur savent bien que, pour créer une « mentalité terroriste », une organisation structurée au fort rayonnement médiatique et idéologique, il faut faire converger trois éléments complémentaires : le niveau individuel, exécutif (« main-d’œuvre »), qui contribue à créer la motivation opérationnelle et le dévouement nécessaire sur un théâtre d’opérations ; le noyau terroriste (souvent fait de fratries closes ou minisociétés sectaires coupées du monde extérieur et des familles, que Pierre Conessa appelle « cellules souches »), qui assure la phase d’endoctrinement et la formation opérationnelle ; enfin l’organisation mère, qui donne le ton, conçoit la stratégie globale, crée les mécanismes de légitimation théocratique légalisant la violence barbare, et déculpabilise les tueurs en les déresponsabilisant. On retrouve ici les conclusions des expériences des sociopsychologues américains Milgram et Zimbardo qui ont prouvé la puissance de l’autorité hiérarchique et morale dans l’incitation à l’acte sadique violent 35 . L’acte terroriste ne se réduit pas aux commandos suicide spectaculaires lancés par les organisations terroristes. Il est en ce sens bien plus qu’une menace sécuritaire, car il est un moteur, un accélérateur de l’histoire politique. L’effet à la fois « convaincant » et dissuasif de la terreur a des conséquences immédiates sur les consciences sidérées. Le dernier exemple en date, après l’attentat de Charlie Hebdo, a été la décapitation de l’enseignant Samuel Paty (attentat de Conflans-Sainte-Honorine, du 16 octobre 2020) par un djihadiste tchétchène suite à une campagne de diabolisation à la fois digitale, associative et « institutionnelle » (relais dans des mosquées et associations légales proches des Frères musulmans). La « promesse du pire » des terroristes adressée aux « blasphémateurs » est en soi un message hautement persuasif. Elle a déjà fait réfléchir nombre de caricaturistes, d’intellectuels et même de décideurs politiques. Le terrorisme peut ainsi être analysé, d’un point de vue stratégique, comme la façon la plus fulgurante de modifier les comportements d’un camp adverse et de diffuser une idée conquérante, en l’occurrence le suprémacisme panislamiste. En ce sens, la dissuasion extrême provoquée par les massacres perpétrés par les djihadistes profite plus qu’on ne le pense aux islamistes non terroristes, car ceux-ci savent, en dépit de leur dénonciation formelle des attentats, que l’on ne prendrait jamais autant au sérieux leurs demandes de lutter « contre l’islamophobie » si les « infidèles » n’avaient l’épée de Damoclès djihadiste au-dessus de leur tête... L’efficacité de la stratégie de l’intimidation Depuis des décennies, dans les pays musulmans, jadis bien plus laïques et où la liberté de croire ou de ne pas croire était plus présente, la « stratégie de l’intimidation » a associé les pressions des islamistes politiques aux menaces violentes des islamistes terroristes. Les concessions octroyées par les dirigeants nationalistes en place à ceux qui voulaient introduire la charia dans l’ordre légal ont toujours été octroyées pour tenter de faire baisser la violence et « calmer la colère des djihadistes ». En Iran, la révolution islamique de l’ayatollah Khomeiny s’est faite dans le sang avant de devenir texte de loi. Depuis les années 1950, les Frères musulmans égyptiens ont fait assassiner des « apostats » et mis au pas des villages entiers par leurs milices avant de conquérir les urnes lors du printemps arabe en 2012 une fois abouti le processus de réislamisation. Ils n’ont d’ailleurs été stoppés par la suite que par une violence plus dissuasive que la leur, celle du nationalisme et du coup d’État militaire qui a porté au pouvoir le réformiste Abdel Fattah al-Sissi en juillet 2013. En Algérie, les assassinats de nombreux intellectuels et journalistes athées ou laïques et la guerre civile extrêmement meurtrière des années 1990 qui a opposé la junte au pouvoir au FIS et au GIA ont précédé l’islamisation des lois favorisées dans les années 1990-2000 par le président Bouteflika, artisan d’une « Concorde civile ». Exemple plus récent, mais plus lointain, au Bangladesh, jadis pays réputé assez modéré et laïque, le parti islamiste Hefazat-e-Islam, qui a adressé au gouvernement, en 2013, une demande de réislamisation des lois comportant la pénalisation du blasphème, a obtenu gain de cause en 2016 à la suite d’une vague d’assassinats commis entre autres afin d’exiger la peine de mort pour les blasphémateurs. C’est ainsi qu’en trois années, une quarantaine d’intellectuels laïques (blogueurs, journalistes, professeurs...) ont été assassinés après avoir été menacés et ciblés 36 dans le pays. Dans la perspective des élections de 2019, la Ligue Awami au pouvoir a finalement cédé, au nom d’une pax islamica, aux requêtes du Hefazat-e-Islam. Celles-ci ont été d’autant plus prises au sérieux qu’elles ont été objectivement « appuyées » par l’effet d’intimidation et de sidération des actions terroristes. Le Hefazat-e-Islam a même réussi à obtenir la limitation des représentations des êtres humains puis à faire interdire les exercices physiques dans les écoles pour les jeunes filles. Le continuum djihadisme-islamisme et le chantage à l’islamophobie La raison pour laquelle les pôles de l’islam officiel n’ont pas profité de l’occasion funeste des attentats terroristes pour opérer un aggiornamento, pourtant réclamé depuis des décennies par les intellectuels musulmans réformistes et modérés, réside dans le fait que ces pôles reconnus comme interlocuteurs légitimes par les États occidentaux et les Nations unies se distinguent plus des djihadistes par les moyens que par les fins, qui sont en fait les mêmes : l’application de la charia et la restauration du califat. De fait, la réunification de l’oumma islamique au nom d’un projet néo-impérial califal demeure l’objectif affiché des Frères musulmans, de l’OCI, dont sont membres cinquante-sept États musulmans, et d’autres grandes institutions panislamiques mondiales. Ces pôles institutionnels de l’islamisation qui dénoncent verbalement la violence djihadiste tout en affirmant qu’elle n’a « rien à voir avec l’Islam » – et donc en niant son existence même – pratiquent de leur côté une ingérence politique dans les affaires de tous les pays du monde où vivent des musulmans, sous couvert de défense de l’islam et des musulmans « persécutés », se nourrissant aussi d’une « islamophobie » souvent imaginaire. Bien que divisés, ces grands vecteurs de l’islamisation planétaire 37 ambitionnent, sous prétexte de « défendre la religion », de contrôler l’oumma islamique dans le monde et en Occident. L’ouverture de nos sociétés pluralistes, rendues perméables par une vision sans-frontiériste et multiculturaliste béate de la mondialisation, est perçue par les forces islamistes radicales comme une vulnérabilité et une faille dans laquelle le prosélytisme politico-religieux islamiste progresse sans rencontrer trop d’obstacles. C’est à l’aune de ce constat que l’une des références suprêmes des Frères musulmans et de nombreux salafistes « modérés », Youssef al- Qardaoui, a décrété il y a des années que l’Europe, habituellement assimilée au « territoire de la guerre » (dar al- harb), est devenue une terre de « l’annonce » (dar al-dawà) et du « témoignage » (dar as-shahada) car ne faisant plus d’obstacle au prosélytisme islamique. De ce fait, pour un musulman, y vivre serait « licite » pour Qardaoui, dès lors que la société d’accueil permet de vivre en conformité avec la charia. La stratégie du « séparatisme islamiste », déplorée par le président français Emmanuel Macron, et combattue par sa loi visant à « renforcer les principes républicains », pousse les musulmans à ne pas s’intégrer aux mœurs locales « impies » et laïques, au nom d’un « droit à la différence » et d’un antiracisme dévoyés. Pour illustrer cette stratégie de « désassimilation », rappelons les propos prononcés, en 2008, par Recep Tayyip Erdoğan, qui répondit à la chancelière Angela Merkel lorsque celle-ci réclama l’intégration des Turcs musulmans d’Allemagne, pourtant présents depuis des générations mais qui forment toujours une communauté à part : « l’intégration est un crime contre l’Humanité 38 ». Ce processus de « ghetto volontaire » se nourrit de la contagion paranoïaque, qui permet aux islamistes de pousser les musulmans – pris ainsi idéologiquement au piège de la victimisation – à se radicaliser et à se ranger progressivement, par « réaction », sous la bannière protectrice et l’ordre sans frontière de la charia. L’objectif panislamiste et sécessionniste poursuivi par les pôles de l’islamisme mondial, djihadistes ou institutionnels, est combattu, certes, par les États musulmans nationalistes (Émirats arabes unis, Égypte, Jordanie, Algérie, Syrie des Assad, Kazakhstan), qui craignent ce nouvel impérialisme théocratique tourné contre leur souveraineté, mais appuyé par le Qatar, la Turquie néo-ottomane d’Erdoğan, le Pakistan, les Frères musulmans, etc. Toutefois, en dépit des rivalités opposant États et pôles islamistes entre eux dans la lutte pour le leadership islamique mondial, ces pôles ont réussi à rendre une partie des communautés musulmanes d’Occident hostiles à leurs pays de naissance ou d’accueil, perçus comme « mécréants », « pervers », et « hostiles aux musulmans ». La force mobilisatrice des pôles violents et non-violents du totalitarisme islamiste consiste à miser sur la « paranoïsation » qui permet de motiver le musulman qui se sent « exclu » à ne plus se conformer aux mœurs et ordres infidèles « ennemis de l’islam ». Ces foyers potentiels de communautarisme « désassimilé » sont autant de viviers dans lesquels les djihadistes peuvent puiser. La vulnérabilité des sociétés démocratiques et multiculturelles Dans nos sociétés occidentales ouvertes, tout comme au Mozambique, au Nigeria, ou en Inde, le but est de polariser la société en opposant les musulmans aux non-musulmans, d’où le fait que les pays les plus souvent et massivement frappés par les djihadistes sont, premièrement, les pays d’islam et, deuxièmement, les pays multiculturels abritant de fortes communautés musulmanes. La stratégie victimaire de « paranoïsation » fonctionne en plein, tant que des non-musulmans continuent à « dominer » et donc « humilier » les « vrais croyants ». Nos sociétés culpabilisées tombent ainsi dans le piège lorsque leurs dirigeants, leurs intellectuels et leurs médias expliquent la violence islamo-terroriste par la dénonciation de « l’oppression » des musulmans, l’exclusion des immigrés, « l’humiliation des Palestiniens » ou l’islamophobie, qui serait le pire des néoracismes et dont l’interdiction du voile ou de la burqa serait la manifestation la plus concrète. En conséquence, nombre de musulmans radicalisés ou djihadistes justifient eux aussi leur franchissement du Rubicon terroriste en affirmant « réagir » à la « persécution » dont ils feraient l’objet en Occident. Ainsi, Émilie König, la célèbre recruteuse française de Daesh partie rejoindre le califat en Syrie en 2012 puis capturée par les Forces démocratiques kurdes (FDS) de Syrie, début janvier 2017, a assuré, quand elle s’est « désavouée » de la France, que c’est la « persécution » des musulmanes interdites de se couvrir dans l’Hexagone qui la motiva. D’où la dangerosité des théories victimaires véhiculées tant par des djihadistes que par des pôles institutionnels de l’islamisme. Ainsi, l’ancien secrétaire général de l’ONU, Ban Ki-Moon, déclara-t-il en 2009 que « le racisme peut aussi s’exprimer de manière moins formelle comme la haine contre un peuple ou une catégorie particulière comme l’antisémitisme, par exemple, ou plus récemment l’islamophobie 39 ». Une illustration plus récente de ce processus de la « stratégie de l’intimidation » par la « paranoïsation » a été offerte, en octobre 2020, à la suite des deux attentats terroristes survenus en France, à Conflans-Sainte-Honorine (décapitation de Samuel Paty, 16 octobre) et à Nice (trois fidèles égorgés dans la basilique Notre-Dame, 29 octobre), lorsque, au lieu de présenter ses condoléances, comme d’autres grands chefs d’État du monde, le président turc Recep Tayyip Erdoğan a dénoncé « l’islamophobie » de la France républicaine et de son homologue Emmanuel Macron, accusés de « persécuter les musulmans » dans le double contexte du projet de loi contre le « séparatisme islamiste » et de la défense de la liberté de caricaturer dans la presse française. Sans surprise, des pays mentionnés plus haut et réputés amis de l’Occident, comme le Qatar, le Koweït ou le Pakistan, structurellement et idéologiquement proches des Frères musulmans, mais aussi l’université sunnite d’Al-Azhar (Égypte), pourtant réputée modérée, ont emboîté le pas au néosultan en dénonçant vigoureusement l’islamophobie française et occidentale. C’est ainsi que Fahrettin Altun, le directeur de communications à la présidence turque, a affirmé que l’islamophobie gauloise rappellerait « la diabolisation des juifs européens dans les années 1920 » ! Au Pakistan, le Premier ministre Imran Khan a reproché au Président français « d’attaquer l’Islam ». Ces accusations miroirs sont intéressantes à analyser de la part de dirigeants de pays musulmans qui persécutent leurs minorités juives, chrétiennes, hindouistes et chiites... Dans la même logique, l’OCI, qui réunit cinquante-sept pays musulmans, a déploré « les propos de certains responsables français [...] susceptibles de nuire aux relations franco-musulmanes ». Cette adresse insinue que la violence djihadiste qui a décapité Samuel Paty ne serait qu’une réaction à une « provocation » initiale des « islamophobes ». Ce réflexe d’exonération a posteriori de la violence chariatique est une constante de l’OCI et des grands pays et institutions islamiques, Arabie saoudite, Qatar, Turquie et Pakistan en tête. D’où la tentative des pays de l’OCI de faire adopter, depuis 2010, par les Nations unies, des résolutions condamnant la « diffamation des religions ». Ce concept, qui confirme la théorie « communautarienne » des relations internationales de Hughes, vise à faire accréditer l’idée que la critique de l’islam ou le blasphème seraient des formes de « racisme » envers les musulmans. Et dans tous les textes et déclarations de l’OCI et d’autres « institutions » islamiques mondiales (Isesco, Congrès islamique mondial, Ligue islamique mondiale) relatifs au terrorisme islamiste, le fait même de désigner le terrorisme islamiste est dépeint comme une « insulte » envers l’islam et les musulmans. D’où la proposition de bannir tout terme invoquant l’islam et de s’en tenir à l’expression « extrémisme violent », édulcoration adoptée par les Nations unies, l’Union européenne, l’OSCE et le Conseil de l’Europe. Le 25 novembre 2020, le président turc Recep Tayyip Erdoğan a logiquement utilisé la tribune de l’OCI, dans le cadre d’une réunion virtuelle de l’un des comités permanents, pour fustiger la liberté d’expression et de presse en matière d’islam dans la France et l’Europe « islamophobes » : « Certains politiciens européens [...] poursuivent une politique discriminante et haineuse envers les musulmans, cibles de la même campagne de haine qui a visé les Juifs d’Europe avant la Seconde Guerre mondiale. Nous devons combattre [...] le racisme culturel qui a englobé l’Occident. » En réalité, le Président turc et ses homologues, ou autres instances islamiques mondiales, sont parfaitement conscients du fait que les musulmans en France et en Occident sont libres, et bien plus que dans la quasi-totalité des pays islamiques, non démocratiques. La reductio ad hitlerum est utilisée ici de façon rhétorique par des leaders qui ne culpabilisent pas d’être intolérants et même judéophobes mais qui savent que l’Européen culpabilise pour ce qu’il ne fait plus depuis longtemps. Erdoğan a habilement profité de la campagne mondiale de diabolisation de la France et des appels aux boycotts qui en ont découlé pour tancer en fait le seul pays européen qui a contrecarré l’expansionnisme turc croissant en Méditerranée orientale (en plus de la Grèce et de Chypre, voir infra). La géopolitique est une démarche holistique, et cet exemple démontre que « tout est lié ». 1. Qui privilégie l’appartenance culturelle et la communauté face à l’individu. 2. Voir Barry B. Hughes, Continuity and Change in World Politics. Competing Perspectives, 3 e éd., Upper Saddle River, NJ, Prentice Hall, 1997. 3. Voir Philippe Braillard, Théories des relations internationales, Paris, Presses universitaires de France, 1977, p. 12. 4. Mohammad-Reza Djalili, Diplomatie islamique, Paris, Presses universitaires de France, 1989. 5. Daniel Colard, Les Relations internationales, p. 52-53. En fait, il existe une troisième catégorie, le dar al-ahd, situation exceptionnelle de trêve entre monde non musulman et monde musulman, le plus célèbre exemple étant la première communauté des fidèles (oumma) qui vivait en paix au royaume chrétien d’Abyssinie (Éthiopie) face aux ennemis communs païens. 6. Gilles Kepel, Le Prophète et Pharaon. Aux sources des mouvements islamistes, p. 54-55. 7. Sayyid Qutb, in ibid., p. 54. 8. Pays du Golfe, Pakistan ; République islamique iranienne ; Frères musulmans ; Ligue islamique mondiale ; Organisation de la coopération islamique ; etc. 9. Ce courant hanbalite salafiste, quatrième école juridique officielle de l’islam (madhab) sunnite, qui ne peut être réduit à une « hérésie », a été porté par deux penseurs fondamentaux du hanbalisme constamment cités par les djihadistes : Ibn Taymiyya (1263-1328), qui éleva le djihad au rang de sixième pilier de l’islam face aux mécréants mongols, puis Muhammad ibn ‘Abd al-Wahhāb (1703-1792), à l’origine du « wahhabisme », école sunnite officielle du royaume saoudien, gardien des deux Lieux saints (al-Haramain) de l’islam : La Mecque et Médine. 10. Benyettou citait aussi beaucoup un « savant » salaf des XIV-XV e siècles, Ibn Hajar al-Asqalani, auteur du traité des hadiths Boulough al-Maram, qui aborde notamment la question du djihad. 11. Voir rapports du CAT, 2017, 2018 et 2019, http://cat-int.org/. 12. CAT, Compte-rendu de la conférence internationale sur le terrorisme : « Quelles menaces et quels enjeux après la chute du califat ? », 7 novembre 2019. 13. Voir son interview accordée à El Mundo, 31 août 2017. 14. Compte-rendu de la conférence internationale sur le terrorisme, op. cit. 15. Alexandra Gonzalez et Ambre Lepoivre, « Près de 130 djihadistes français vont être rapatriés de Syrie en France », Le Monde, 29 janvier 2019. 16. Lucie Valais, « Terrorisme : 240 jihadistes de retour en France depuis 2012, la majorité en prison », RTL, 27 octobre 2017. 17. Voir Alexandre Del Valle, La Stratégie de l’intimidation. Du terrorisme jihadiste à l’islamiquement correct, Paris, L’Artilleur, 2018, voir dans ce livre les annexes consacrées aux textes sacrés islamiques relatifs à la ruse de guerre. 18. Abou Bakr Naji, Idārat at-Tawaḥḥuš. Akhṭar marḥalah satamurru bihā l ‘ummah ; Management of Savagery. The Most Critical Stage Through Which the Islamic Nation Will Pass, 2007, 250 p. 19. International Crisis Group, « COVID-19 and Conflict: Seven Trends to Watch », 24 mars 2020. 20. « Syrie : 37 militaires du régime tués dans une attaque djihadiste dans l’Est », Le Figaro, 30 décembre 2020. 21. « Dix-neuf combattants prorégime tués dans une attaque de l’EI », L’Orient-Le Jour, 3 février 2021. 22. « Terrorisme. Daech revient sur le devant de la scène en Syrie », Courrier international, 12 janvier 2021. 23. Scott Atran, « Daech n’a pas commandé les attentats de Paris et Bruxelles », Le Soir plus, 20 octobre 2017. 24. Cité in Romain Caillet et Pierre Puchot, Le combat vous a été prescrit, Stock, 2017, p. 233-234. 25. Il est né dans la ville irakienne de Tal Afar (soixante-dix kilomètres à l’ouest de Mossoul), enclave turkmène entre chiites et sunnites, ces derniers ayant fourni jadis à Saddam Hussein maints cadres. Et lorsque Saddam commença, face aux Américains, à mobiliser des réseaux salafistes, les sunnites de Tal Afar, surreprésentés, alimenteront l’EI. 26. Le GSIM regroupe Ansar Dine, des branches d’Aqmi, des combattants de l’ex-Mujao et du MNLA berbère du Mali. 27. Amnesty International, « The Battle of Marawi: Death and destruction in the Philippines », rapport, 17 novembre 2017. 28. Lead inspector general, « Operation Inherent resolve and Operation Pacific Eagle – Philippines », report to the United States Congress, 1 er avril 2020-30 juin 2020. 29. « En Malaisie, l’islam conservateur progresse », Le Monde, 21 juillet 2017. 30. Alexandre Del Valle, La Stratégie de l’intimidation, op. cit. 31. Dès le XVIII e siècle, un « protodjihadisme » a sévi en Afrique subsaharienne-sahélienne : l’État théocratique du Fouta-Djalon en Moyenne- Guinéeau XVIII e siècle ; l’Empire peul du Macina au Mali entre 1818-1862 ; l’empire théocratique de Sékou Amadou Barryi, puis de Sékou Amadou, sans oublier au Nigeria l’empire de Sokoto au XIX e siècle. 32. Et inspirés par un religieux kenyan lié aux attentats antiaméricains de Nairobi et Dar es-Salam en 1998, Aboud Rogo Mohammed, ont ouvert leurs madrasas en Tanzanie et au Mozambique. 33. Walter Laqueur, « The Futility of Terrorism », Harper’s Magazine, vol. 252, n o 1510, mai 1976, p. 69-120. 34. Dans les années 1980, la mère d’Abou Moussa al-Zarqaoui, inquiète que son fils soit délinquant drogué et alcoolique, l’envoie dans une école coranique de Zarka (sa ville natale en Jordanie) pour le « remettre dans le droit chemin ». Il en ressortira très pieux mais ultraradical puis se retrouvera à la fin des années 1980 dans les mains de l’imam djihadiste d’al-Qaida al-Maqdissi, qui l’emmènera en Afghanistan. 35. Tout comme l’expérience célèbre de Milgram, celle de Zimbardo, psychologue américain, dite « expérience de Stanford », montre les mécanismes de l’obéissance à une institution et prouve que n’importe qui peut commettre des actes atroces en situation de légitimation par l’autorité de référence. 36. Un rapport du Bangladesh Hindu Buddhist Christian Unity Council de 2016 comptabilise 1 471 incidents violents contre des minorités, contre 262 en 2015. Les atrocités ont culminé le 1 er juillet 2016, lors de l’attaque d’un café-restaurant de Dacca qui a fait 22 victimes, dont 18 étrangers. 37. OCI ; Ligue islamique mondiale ; Frères musulmans ; autres associations pilotées par des États comme la Turquie néo-ottomane d’Erdoğan, le Pakistan coparrain d’al-Qaida et créateur des talibans afghans, le Qatar, protecteur des Frères musulmans, et l’Arabie saoudite, promotrice du wahhabisme-salafiste. 38. « L’assimilation est un crime contre l’humanité », déclara Erdoğan, à Cologne, le 10 février 2007, devant 16 000 Turcs. 39. Delphine Roucaute et Madjid Zerrouky, « L’islamophobie est-elle punie par la loi ? », Le Monde, 20 janvier 2015. CHAPITRE VIII Prolifération nucléaire et aléas du désarmement « Les États émergents d’Asie se sont naturellement tournés vers les sciences de l’atome dans le même temps que s’en détournaient les “anciennement industrialisés” en Occident [...]. La Russie, la Chine, l’Inde, le Pakistan, la Corée du Nord possédant le savoir de l’“atome militarisé”. La Chine doit à Hiroshima une révélation : séculairement assurée d’une civilisation n’ayant rien à envier à l’extérieur, force lui fut de constater que c’est la science occidentale et non la sienne qui a maîtrisé la désintégration de la matière. Dans un tel environnement, on saisit les ressorts de la démarche iranienne... » Général Pierre Marie Gallois Des origines du nucléaire militaire à l’échec des traités de désarmement et de non-prolifération La prolifération nucléaire récente, qui concerne surtout la Corée du Nord et l’Iran, est devenue possible grâce à l’effacement des frontières, processus qui a facilité la mondialisation des technologies nucléaires et balistiques qui devaient être au départ strictement contrôlées par des États membres du club privilégié des détenteurs de ces armes dévastatrices. Un exemple édifiant de cette mondialisation technologique hors contrôle a été offert ces dernières années par l’évolution de l’Ukraine. Après la dislocation de l’URSS, ce pays a vendu clandestinement des technologies balistiques à la Corée du Nord, profitant d’un contexte de chaos et de paupérisation accentué par le conflit armé dans le Donbass qui a démarré en 2014 et dure encore. Le 16 juillet 1945, le monde entrait dans l’ère nucléaire avec la première explosion de la bombe atomique américaine dans le désert du Nouveau-Mexique, à Alamogordo. Non sans cynisme, les Américains n’ont guère tardé pour passer du stade de l’expérimentation à celui de l’application, puisque vingt jours plus tard, le 6 août 1945, le bombardier Enola Gay larguait « Little Boy » et ses 15 kt sur Hiroshima ; trois jours encore, et c’était au tour de Nagasaki. « L’arme de la terreur » n’était plus une fiction. À la fin des années 1930, des savants comme Albert Einstein avaient émis l’hypothèse que l’Allemagne hitlérienne pourrait produire dans un délai assez bref une bombe basée sur le principe de l’énergie de fission d’un atome lourd, comme le plutonium ou uranium. C’est dans ce contexte que le gouvernement Franklin Roosevelt lança le spectaculaire programme Manhattan 1 , dans lequel les meilleurs experts du monde occidental, associés à de grandes entreprises (amorce du désormais célèbre « complexe militaro-industriel »), et qui devait aboutir à Alamogordo, puis, à Hiroshima... La plupart des observateurs évoquaient à ce propos la naissance du concept de dissuasion, or il n’en était rien : Little Boy était tout simplement destiné à faire capituler l’armée nippone et, plus discrètement, à freiner les ambitions de « l’allié » soviétique car I’armée Rouge progressait rapidement. Quant au bombardement atomique tout aussi massif de la ville de Nagasaki, trois jours plus tard, qui était en réalité inutile pour atteindre l’objectif de la capitulation, déjà acquise, il s’explique par le fait que la bombe d’Hiroshima est une bombe à l’uranium tandis que celle de Nagasaki était au plutonium, cette dernière avait été fabriquée par un lobby industriel concurrent du précédent et désirant faire, à son tour, une « expérimentation »... À partir de cette date, le « club nucléaire » va se développer lentement mais régulièrement. Durant quatre ans, Washington conserve le monopole de la détention de l’arme atomique. Moscou réalisera sa première expérience dans le désert du Kazakhstan en août 1949. La Grande-Bretagne (sous franchise américaine) la réalise à son tour en novembre 1952, suivie de la France, en février 1960 (au Sahara, alors encore français), de la Chine de Mao, en octobre 1964, dans le Xinjiang, de l’Union indienne, le 19 mai 1974, d’Israël en 1981, du Pakistan, le 13 mai 1998, et de la Corée du Nord, en 2006. Pour résumer, ces 9 pays sont les seuls qui possèdent l’arme nucléaire aujourd’hui. Au total, de 1945 jusqu’à nos jours, il y a eu plus de 2 000 essais nucléaires réalisés 2 . Quant à la spécificité de l’arme atomique : rappelons simplement que l’explosif présente plusieurs caractères originaux, dont une puissance de destruction colossale pour un faible volume, comparativement aux armes conventionnelles. La miniaturisation de l’arme nucléaire n’a guère cessé de croître au cours des années, permettant aussi de réduire le gabarit des véhicules porteurs et de multiplier, sur un même vecteur, le nombre d’ogives. Les missiles balistiques présentent des caractéristiques quasi révolutionnaires : la vitesse était grosso modo de l’ordre de 1 000 km/h pour un bombardier « banal ». Elle peut désormais atteindre 25 000 à 30 000 km/h, avec les conséquences que l’on imagine en matière de temps de réaction. Quant à la portée, les missiles intercontinentaux peuvent atteindre, depuis un demi-siècle, des cibles situées de 14 000 à 15 000 km, ce qui signifie tout simplement qu’un des pays possédant cette arme peut menacer n’importe quelle région du globe. De plus, alors qu’à l’aube des années 1970, la marge d’imprécision d’un Minuteman 3 était de 2,4 km, elle n’est aujourd’hui que d’environ 200 m... Ces précisions permettent de mieux comprendre pourquoi la République islamique iranienne souhaite acquérir le feu atomique et pourquoi la Corée du Nord n’y a pas renoncé : cette dissuasion maximale est une « assurance-vie » pour tout régime qui se trouve dans le collimateur des États-Unis... La Corée du Nord n’a en effet jamais subi le sort de l’Irak ou de la Libye, se plaît à dire le dictateur Kim Jong-un... Les conséquences géopolitiques de l’atome Au-delà des conséquences strictement stratégiques, l’apparition puis le développement de l’armement nucléaire ont entraîné un certain nombre de bouleversements, notamment dans la hiérarchie et le poids des facteurs géostratégiques des six critères majeurs pris en compte depuis des siècles par les États-majors, à savoir : la localisation : toutes notions de distance perdent leur signification à l’heure des armes de nouvelle technologie nucléaire et des missiles intercontinentaux ; les dimensions du champ de bataille, qui changent complètement d’échelle par rapport aux territoires à conquérir, la puissance de destruction de la charge atomique pouvant raser des villes entières. Une bombe nucléaire Tsar 4 , par exemple, a une zone de déflagration d’environ 117 km², de quoi raser Paris et une partie de sa banlieue d’un coup 5 ! Et l’on ne raisonne plus en délais de quelques jours, mais en une poignée de minutes... ; les conditions climatiques : la qualité de ces armes leur permet d’être utilisées dans n’importe quelle condition, comme se plaisait aussi à le répéter Pierre Marie Gallois, « le missile atomique ignore la pluie, la neige, la glace, la tempête, le brouillard ». le poids de la logistique, majeur dans le cadre des guerres conventionnelles, est très allégé dans l’optique d’un conflit atomique ; le contexte « industriel » : le nucléaire est friand, par essence, de techniciens hautement qualifiés et de budgets de R&D élevés, mais peu gourmand en hommes, contrairement aux arsenaux d’armements classiques ; le nombre de combattants : l’époque des gros bataillons est révolue à l’ère nucléaire ; une flotte de 4 ou 5 SNLE 6 suffirait largement à détruire n’importe quel État du globe. Cependant, pour chaque gouvernement, la menace que représentent ces armes pour la sécurité collective passe après la défense de leurs propres intérêts. La Chine, la Russie ou l’Iran y voyant un moyen de contrer les Américains en renforçant leur influence dans diverses zones du globe, notamment au Moyen-Orient. Bouleversement des hiérarchies militaires étatiques classiques La plupart des spécialistes s’accordent depuis des lustres à établir une hiérarchie des États-nations. En 1914, à la veille de la Grande Guerre, la France et le Royaume-Uni, les deux grands empires coloniaux, précédaient le Deuxième Reich et la Russie tsariste, suivaient les États-Unis, le Japon ou les empires austro-hongrois et ottomans (voir carte n o 9). Ce classement s’est vu modifié maintes fois au gré des différentes guerres. L’Allemagne nazie était en tête à la veille de la Seconde Guerre mondiale, pour passer ensuite au monde bipolaire avec les États-Unis et l’URSS et arriver aujourd’hui avec les puissances que l’on connaît : les États-Unis suivis de la Chine et de la Russie, après lesquels viennent la France, le Royaume-Uni, le Japon et l’Inde. Les classements traditionnels des puissances se basent sur divers critères quantitatifs comme le nombre de soldats, la quantité d’armement ou autre, qui, bien que globalement justes, sont assez discutables. En effet, aujourd’hui on distingue plutôt certaines catégories de hiérarchie de puissances : les superpuissances qui sont, par définition, susceptibles de préserver leur territoire national par la « sanctuarisation nucléaire » en dissuadant l’adversaire potentiel d’une agression grâce à un arsenal de forces conventionnelles telles que leur capacité d’intervention extérieure est très élevée. Cette définition pouvait s’appliquer avant 1991 aux deux grands de l’époque. Elle ne concerne plus, pour le moment, que les États-Unis ; ensuite les autres membres du club nucléaire (les huit « partenaires ») composé de : la Russie, la France, le Royaume-Uni, la Chine, l’Inde, Israël, le Pakistan et la Corée du Nord, qui disposent de la maîtrise de l’armement nucléaire et, intégrant dans leurs stratégies le « pouvoir égalisateur de l’atome » (Gallois), peuvent se sentir sanctuarisés, ceux-ci n’ont cependant pas ou plus la capacité de jouer aux gendarmes du monde et ne peuvent évoquer l’utilisation éventuelle de leur arsenal nucléaire que si leurs intérêts vitaux sont menacés ; et enfin les « Exclus de l’arme atomique », catégorie désignant tous les autres membres de l’ONU qui, pour des raisons diverses, ne possèdent pas l’arme nucléaire. Le « club nucléaire » En 2020, neuf États-nations (voir supra) possèdent l’arme nucléaire, avec un poids certes variable, même si l’important ici n’est pas quantitatif, mais tout simplement d’en disposer ou non (« pouvoir égalisateur »). Soulignons tout d’abord qu’il existe deux catégories de membres du club : ceux qui tendent à réduire leurs armements nucléaires, à savoir les États-Unis, la Russie, et, sur une plus petite échelle, le Royaume-Uni et la France ; et les autres, a contrario, qui ont engagé un processus d’augmentation, même modeste, de leurs capacités en la matière : la Chine, bien sûr, mais aussi l’Inde, le Pakistan, Israël et la Corée du Nord. Revenons sur le statut et l’état des lieux nucléaires de chacun des membres du « club des 9 », par ordre d’entrée en scène : 1) Leader incontesté en matière de nucléaire militaire, les États-Unis possèdent environ 5 800 ogives nucléaires à ce jour 7 (dont 2 300 « en attente de démantèlement ») après en avoir eu plus de 25 000 pendant la guerre froide, avec un budget pour la recherche et le maintien de leur arsenal nucléaire de 35,4 milliards de dollars en 2019, soit une augmentation de 20 % par rapport à 2018. Leur arsenal est actuellement déployé sur 19 bases, dont 5 dans des pays européens membres de l’Otan (l’Allemagne, la Turquie, l’Italie, la Belgique et les Pays- Bas) et composé d’une centaine d’appareils aériens, de 450 missiles intercontinentaux et d’une composante sous-marine (2/5 de la force de frappe américaine) de 14 SNLE et 50 sous-marins lance-missiles de croisière. 2) La Russie possède 6 372 ogives pour un peu moins de 400 missiles intercontinentaux 8 avec 78 bombardiers et 13 SNLE patrouillant dans le Pacifique Nord, au large du Japon, dans l’océan Arctique et au sud. Mais l’autre fer de lance de la puissance de la Russie demeure ses forces nucléaires tactiques pour l’essentiel implantées sur les frontières des ex-démocraties populaires, face à l’Otan, et sur la rive de l’Amour, face à son voisin chinois 9 . 3) Le Royaume-Uni dispose aujourd’hui de 195 ogives 10 , dont 4 SNLE armés de Trident. Depuis 1992, tout en confirmant son engagement à n’utiliser l’arme atomique qu’en riposte à une attaque nucléaire, le Royaume-Uni a abandonné sa composante aérienne et n’a donc plus que sa force sous-marine. Autre originalité de la Grande- Bretagne, eu égard à la genèse de ses forces nucléaires : le principe de « double clé », qui suppose l’autorisation préalable de Washington quant à l’utilisation en seconde frappe de ses forces. Plus qu’un symbole, les missiles britanniques sont aujourd’hui stockés dans la base américaine de Kings Bay, en Géorgie. 4) La France, troisième puissance nucléaire du globe, dispose de 290 ogives. Sa capacité de dissuasion repose sur 2 composantes, ses forces aériennes (Mirage, Rafale) et ses forces sous-marines, notamment 6 SNA 11 , progressivement remplacés via la politique de modernisation des sous-marins d’attaque, et 4 SNLE dotés chacun de 16 missiles. 5) La Chine dispose aujourd’hui de 320 ogives nucléaires, 140 missiles balistiques ; et sa composante marine, qui était il y a peu dérisoire (un seul SNLE équipé de 12 missiles il y a dix ans), est maintenant de 6 SNLE de la classe 094 (certaines sources donnent 4 SNLE équipés de 12 Ju Lang-2 [Opex] et 2 autres pas encore opérationnels), armés de 12 missiles JL-2. Deux nouveaux sous-marins SNLE viennent d’être construits et, d’ici 2030, Pékin va se doter d’un nombre de SNLE permettant une présence simultanée de 2 à 3 sous-marins en mer, Pékin devant armer un total incompressible de 4 à 6 lots de missiles (pour tenir compte des rotations et de la maintenance), pour un total de 6 à 8 SNLE, ce qui est logique eu égard à l’importance des façades littorales du pays et de sa vocation potentielle à s’implanter dans le Pacifique. 6) L’Inde recenserait 150 ogives, une capacité de frappe potentielle suffisante pour dissuader la Chine et, a fortiori, le Pakistan. New Delhi dispose aussi d’une petite composante sous-marine, 4 SNA prévus, 3 construits et 1 opérationnel, grâce à son partenariat avec Moscou. L’Inde est le seul État avec la Chine, parmi les puissances nucléaires historiques, à poursuivre un programme de construction de SNLE. 7) Le Pakistan possède 160 ogives nucléaires, des missiles à moyenne portée, dans le cadre de sa coopération militaire avec les États-Unis, dont 1 missile de croisière (le Tigre). Le Pakistan possède ainsi des forces nucléaires susceptibles de dissuader un adversaire potentiel, et donc incontournables dans les relations qu’il entretient avec ses voisins indien et chinois. 8) Israël a longtemps disposé d’un arsenal nucléaire caché, pour des raisons politiques évidentes. L’État hébreu disposerait d’une centaine de missiles balistiques, rendant parfaitement crédible une riposte, voire une frappe préventive, en cas d’agression d’un ennemi potentiel comme l’Iran. En outre, Tel-Aviv s’est doté depuis quinze ans d’une flottille de 6 SNA Dolphin qui font d’Israël une puissance navale non négligeable au cœur de la Méditerranée. 9) La Corée du Nord a procédé, le 9 octobre 2006, à son premier tir, à la stupéfaction de maints États de la planète, y compris de son allié chinois, puis à d’autres en mars 2009, en mai 2013, en janvier 2016, le 23 avril 2016 (tir d’un missile depuis un sous-marin), en septembre 2017, et en août 2019. Tout cela en dépit de la multiplication des sanctions économiques décidées par la communauté internationale. L’État nord-coréen disposerait actuellement de 35 ogives. D’autres sources estimaient en 2016 que l’arsenal nord-coréen était entre 10 et 16 bombes atomiques, mais ce chiffre doit aujourd’hui s’élever à 20 à 30 unités 12 . La prolifération nucléaire La prolifération nucléaire reste aujourd’hui la plus grave menace pour la sécurité collective, car étant donné le nombre de nations ayant ou pouvant avoir l’arme atomique, aucun État ou institution internationale à l’heure actuelle n’est en mesure de faire accepter ses décisions ou de faire respecter les traités de non-prolifération (voir infra). À l’heure de la disparition de l’Union soviétique, et donc du système bipolaire, la Commission des Nations unies consacrée à cette question considérait officiellement qu’« une bonne douzaine d’États disposaient de la capacité de fabriquer la bombe atomique », ils sont aujourd’hui le double ! Figurent dans cette liste des puissances d’Europe occidentale, comme la Belgique, l’Allemagne, l’Italie, le Danemark, la Suède, la Finlande, la Norvège ou l’Espagne, qui maîtrisent la technologie mais qui, pour de raisons diverses, refusent de s’y engager. D’autres pays n’ont pas besoin actuellement de la développer car ils bénéficient de la protection du parapluie américain, à l’image du Canada, de l’Australie, de la Nouvelle-Zélande ou du Japon. Mais d’autres, comme l’Iran, les pays moyen- orientaux ou certains pays asiatiques, essaient actuellement ou pourraient essayer à l’avenir de l’obtenir. Le Japon et la Corée du Sud pourraient être tentés d’acquérir à leur tour l’arme nucléaire face à l’hégémonie militaire croissante de la Chine et face au pouvoir de nuisance de la Corée du Nord. La course au nucléaire est par conséquent loin d’être terminée : en 2019, les neuf pays disposant du feu nucléaire ont dépensé 66,5 milliards d’euros pour cette technologie (10 % de plus qu’en 2018). Aujourd’hui encore, les armes atomiques peuvent constituer une grave menace pour la paix et la sécurité internationales, car ce sont des armes de destruction massive dont l’utilisation provoquerait non seulement des dégâts (humain et matériel) incommensurables, mais remettrait en cause la survie même de l’humanité. Le traité sur la non-prolifération 13 (TNP) est plus que jamais menacé (voir infra) et sa crédibilité est réduite depuis l’obtention de l’arme nucléaire par le Pakistan, l’Inde et surtout la Corée du Nord. Le cauchemar du « terrorisme nucléaire » En plus de comporter un fort risque de déstabilisation de l’ordre géopolitique mondial, la prolifération nucléaire comporte également aujourd’hui le risque que des organisations terroristes obtiennent un jour des armes nucléaires, certes rudimentaires, mais au potentiel dévastateur sans précédent. Il y a actuellement deux régions dans lesquelles le risque de prolifération est élevé : le Moyen-Orient et l’Asie du Nord-Est. Certes, la construction d’une arme nucléaire et son utilisation sont très difficilement accessibles à des groupes terroristes. Toutefois, ceux-ci pourraient s’en procurer soit en l’achetant à un État – peu probable –, soit en prenant le pouvoir dans un pays qui la possède, soit en fabriquant des bombes sales 14 après avoir acheté de la matière fissile auprès d’États ex-soviétiques ou trafiquants de ces pays ayant accédé à des stocks. Des armes atomiques du pauvre seront de plus en plus faciles à fabriquer à l’avenir en raison du nombre très élevé de sources radioactives et des contrôles beaucoup trop légers (peu de réglementations sur les vieux stocks de déchets radioactifs). Un rapport d’information du Sénat estime « à plusieurs milliers le nombre de sources radioactives dites “orphelines”, perdues, abandonnées ou volées, dont certaines peuvent présenter un risque important pour la sécurité 15 ». Un autre point sensible à l’avenir concerne le développement accéléré des nouvelles technologies (notamment le cyber) qui rend encore plus incertains et fragiles les systèmes de sécurisation de ces armes. Quid de l’Iran ? La question du programme nucléaire iranien défraya la chronique internationale en 2002, lorsqu’un dissident du régime, Alireza Jafarzadeh, annonça, preuves à l’appui, que Téhéran avait secrètement construit un site d’enrichissement d’uranium à Natanz, au sud de la capitale. Le Président d’alors, Mahmoud Ahmadinejad, confirma lui-même que « l’Iran allait rapidement rejoindre les puissances nucléaires » et que son pays « éradiquerait l’État d’Israël ». Certes, la communauté scientifique iranienne ne manqua pas de souligner que cela concernait le strict domaine du nucléaire civil, via les centrales de Boucheh, sur le golfe Persique, et de Darkhovin, face au Koweït. Mais la « communauté » dite « internationale » n’a jamais été convaincue, même si le passage du nucléaire civil (enrichissement de 3 à 5 % du minerai d’uranium) au nucléaire militaire (enrichissement de l’ordre de 90 %) est loin d’être évident. C’est ainsi que le 14 juillet 2015, à Vienne, à l’initiative du président Hassan Rohani et de son homologue Barack Obama, un accord spécifique a été signé entre Téhéran, les cinq membres permanents du Conseil de sécurité des Nations unies et l’Allemagne. L’accord de Vienne de 2015 sur le nucléaire iranien, appelé Joint Comprehensive Plan of Action (JCPOA), comporte trois volets majeurs : une limitation du programme nucléaire iranien, pendant au moins dix ans, lui interdisant la possibilité de produire du plutonium enrichi, et non, comme on a pu le lire ici ou là, par un démantèlement du programme ; un renforcement des contrôles, via le corps des inspecteurs de l’Agence internationale de l’énergie atomique (AIEA) ; et, en contrepartie, la levée au moins partielle, des sanctions économiques qui avaient été imposées à l’Iran. Bien que le rapport de l’AIEA du 30 août 2017 soulignait que « l’Iran tenait ses promesses et respectait ses engagements en renonçant à poursuivre la construction du réacteur d’Arak et en maintenant son uranium enrichi sous le seuil exigé des 30 kilogrammes », Donald Trump dénonça l’accord le 8 mai 2018. Deux faits conjoncturels sont à relever depuis cette date : l’assassinat, en Irak, le 12 janvier 2020, du général Qassem Soleimani 16 , le chef des forces Al-Qods et des Gardiens de la révolution (Pasdarans), et celui de Mohsen Fakhrizadeh 17 , le père de la bombe atomique iranienne, le 13 novembre 2020, à Absard, dans la province de Téhéran. Parallèlement, entre 2010 et 2019, des infrastructures nucléaires (centrifugeuses) et des réseaux stratégiques iraniens ont été attaqués par le virus informatique Stuxnet 18 ainsi qu’un autre encore plus sophistiqué et violent. Des faits qui montrent la détermination des États-Unis et d’Israël à ne pas accepter l’avancée de l’Iran vers le feu atomique. Certes, le nouveau président américain Joe Biden a promis de réintégrer l’accord. Et les négociations de Vienne, initiées le 6 avril 2021, ont permis de mettre sur la table un projet d’accord, le 20 juin 2021. Toutefois, si un texte est signé par l’administration américaine et le nouveau président iranien, Ebrahim Raeissi – un proche du Guide Suprême jadis hostile à l’accord de 2015, dont l’intérêt immédiat est de sortir son pays de la crise économique terrible – il sera toujours considéré comme un accord de dupes par l’Etat hébreu qui ne croit pas un instant aux engagements et à la parole des dirigeants iraniens. Joe Biden s’est d’ailleurs gardé de promettre de réintégrer les États-Unis dans l’accord de 2015 sans obtenir au préalable que le régime iranien donne des gages de bonne foi, notamment la fin de l’enrichissement de l’uranium à 60 %, seuil pas si éloigné que cela des 90 % qui permettent le passage au nucléaire militaire alors que l’accord limitait à 3,67 % le degré d’enrichissement de l’uranium produit par l’Iran, bien en deçà du seuil de 20 % atteint par Téhéran avant de signer le pacte. L’intention du président Joe Biden de lever les sanctions renforcées par Donald Trump pour que l’Iran soit motivé à renouer avec ses engagements se heurte en effet au caractère presque irréversible de certaines des mesures prises en 2018, notamment l’embargo pétrolier drastique contre Téhéran et l’interdiction de toute transaction avec l’Iran. Biden ne pourra en fait lever une partie des sanctions que si le régime des mollahs renoue avec les engagements de renonciation au nucléaire militaire dont il s’est progressivement affranchi, officiellement pour répondre à la « pression maximale » exercée par l’administration Trump. Toutefois, Téhéran exige en préalable l’abandon de « toutes les sanctions anciennes et nouvelles ». S’ajoute à ces préconditions, en elles-mêmes problématiques, la dénonciation par le régime iranien du sabotage ayant causé la panne du complexe nucléaire de Natanz (indispensable à l’enrichissement de l’uranium iranien) attribué à Israël. En représailles à cet acte de « terrorisme antinucléaire sioniste », les dirigeants iraniens ont décidé de porter l’enrichissement de leur uranium à 60 %, se rapprochant toujours plus des 90 % nécessaires à la fabrication de l’arme nucléaire. Selon certains, Joe Biden aurait tout intérêt à faire revenir l’Iran dans l’accord, mais il court un risque politique s’il se montre trop laxiste car les opposants à l’accord de Vienne pèsent au Congrès et au Sénat. Toujours est-il qu’une des conséquences principales des sanctions renforcées par Donald Trump (« pression maximale ») a été le renforcement de la coopération irano-chinoise qui a franchi un nouveau cap avec l’officialisation d’un accord stratégique de vingt-cinq ans entre les deux pays en mars 2020, un rapprochement que voudrait éviter à tout prix Joe Biden mais qui participe d’une tendance lourde inhérente à la multipolarisation et aux rivalités entre les États-Unis et le tandem russo-chinois 19 . En fait, en cas d’échec des négociations, la potentielle accession à l’arme nucléaire du pays serait extrêmement déstabilisante pour toute la région et sur le plan de la prolifération mondiale : certains pays arabes comme l’Arabie saoudite, ennemie principale de l’Iran, pourraient tenter à leur tour d’obtenir l’arme nucléaire par le biais du Pakistan, avec qui Riyad entretient des liens stratégiques étroits. Par la suite, la Turquie, à la fois liée au Pakistan et à l’Iran, et qui ne cache plus ses ambitions nucléaires militaires, pourrait saisir l’occasion pour lancer son propre programme accéléré. L’Égypte pourrait décider à son tour de relancer son programme nucléaire militaire secret initié dans les années 1980 et 1990, mais à condition de s’émanciper de sa relation privilégiée avec les États-Unis, ce qui est moins probable. Enfin, Israël ne pourrait pas ne pas intervenir militairement pour empêcher l’éventualité, totalement inacceptable, de l’acquisition du feu atomique par Téhéran... Le commerce des armes à l’heure du système postbipolaire Les ventes d’armes restent de manière significative (plus de 90 %) le quasi-monopole des États développés. Le peloton de tête des vendeurs d’armes (commerce officiel s’entend) est ainsi constitué des États-Unis en première position, de la Russie en deuxième, de la France, de l’Allemagne et de la Grande-Bretagne ensuite, mais en fait de l’UE en deuxième place devant la Russie si l’on raisonne en UE 27. Seules, mais avec des volumes de transactions qui restent modestes, quelques nations du Sud émergent, comme le Brésil, ou l’Union indienne, prenant le relais des seconds couteaux de la période précédente, comme la Pologne, la République tchèque ou la vertueuse Confédération helvétique, qui a par ailleurs déclaré la paix au monde et s’est réfugiée dans une stricte neutralité depuis des siècles, ce qui ne l’a pas empêché, sans états d’âme, d’occuper une place dans le top 10 des vendeurs d’armes depuis de nombreuses années. Quant aux clients, on souligne l’affirmation de la prédominance des pétromonarchies islamiques du Golfe, la présence de quelques nations en voie de développement du Sud-Est asiatique et l’arrivée aux tout premiers rangs (démographie oblige) de la Chine populaire et de l’Inde. Depuis les années 2000, la course aux surarmements s’est indéniablement amplifiée : les ventes d’armes et de systèmes d’armes ont crû annuellement de près de 10 % au cours de période 2012-2019. Le cap des 750 milliards de dollars de ventes a été franchi en 2013, et celui des 1 000 milliards en 2018. Ceci en dépit de la signature, en avril 2013, par quelque 131 États, du Traité sur le commerce des armes (TCA), entré en vigueur le 24 décembre 2014 et aujourd’hui ratifié par 110 nations. Son objectif est de « contribuer à réguler le commerce des armes et lutter contre le trafic illicite », visant tous types d’armements classiques, à l’exception des armes nucléaires, chimiques et bactériologiques, concernées par toute une gamme de traités spécifiques (voir infra). Malgré cela, le commerce mondial des armes n’a cessé depuis de s’accroître 20 . En 2019, la hiérarchie établie par l’International Institute for Strategic Studies (IISS) de Londres a montré que le top 5 assume quelque 75 % du trafic mondial : les États-Unis occupent le haut du pavé, avec 33 % des ventes, devant la Russie (23 %), la France (7,9 %), talonnée par la Chine (6 %), l’Allemagne (5,6 %), et la Grande-Bretagne (5,2 %). Une hiérarchie à mettre en parallèle, avec les plus gros budgets nationaux consacrés à la Défense, États-Unis, Russie ou Chine. Guère de surprises... La France est tout de même le troisième exportateur d’armes au monde. D’après le Small Arms Survey (l’annuaire sur les armes légères) et Uppsala Conflict Data Program (programme de collecte de données sur les conflits de l’université d’Uppsala), la valeur totale des transferts internationaux d’armes en 2020 s’élèverait à environ 100 milliards de dollars. Quant au « top 5 » des plus grands importateurs d’armes sur la période 2014-2019, l’Inde, l’Arabie saoudite (qui importe 22 % des ventes américaines d’armes), l’Égypte, l’Australie et l’Algérie ont totalisé ensemble 35 % des importations d’armes. L’Union indienne (13 %) a ainsi désormais dépassé l’Arabie saoudite (8,3 %) en raison des tensions avec les puissances voisines : Chine et Pakistan (voir conflit du Cachemire). L’Arabie saoudite s’arme quant à elle essentiellement face à son voisin iranien. Les Émirats arabes unis (4,8 %) craignent eux aussi l’Iran, mais sont actifs militairement au Yémen contre les djihadistes, en Libye contre les Frères musulmans, et équipent leurs alliés égyptiens et libyens. Avec 4,2 %, la Chine achète les armes qu’elle ne fabrique pas elle-même et s’équipe face aux États-Unis et à leurs alliés d’Asie ainsi que face à l’Inde. L’Algérie (3,5 %) suit et continue quant à elle d’entretenir des relations conflictuelles avec son entourage, notamment le Maroc, et poursuit sa stratégie d’indépendance et de domination militaire du Maghreb. Les crises continuelles au Proche- et au Moyen-Orient, de l’Iran à la Syrie, en passant par l’Irak, la Libye, le Mali ou le Yémen, n’ont fait que renforcer ces tendances. Rappelons que plus de la moitié des exportations d’armes américaines ont été destinées au Moyen-Orient entre 2014 et 2018, et que dans la même période, 59 % des exportations d’armes du Royaume-Uni ont été destinées au Moyen-Orient, la grande majorité des livraisons concernant des avions de combat destinés à l’Arabie saoudite et à Oman 21 . Toujours d’après les estimations de Small Arms Survey, un milliard d’armes à feu au moins seraient en circulation dans le monde, l’écrasante majorité étant possédée par de civils. Au total, depuis 1989, 2 436 351 personnes sont mortes dans des conflits armés, dont 78 000 en 2018, selon l’université d’Uppsala. Ceux qui veulent « supprimer la guerre », abolir les frontières, promouvoir une humanité unifiée et refusent l’idée même d’avoir des « ennemis » professent, certes, de belles idées. Toutefois, les actions de la majorité des États de la planète, y compris les démocraties occidentales, qui donnent des leçons de tolérance politiquement correctes aux « démocratures » du monde multipolaire, mais comptent parmi le top 5 des pays vendeurs d’armes, confirment le fait que les États n’ont ni amis ni bons sentiments mais des intérêts, souvent cyniques... Contrôle des armements ? Désarmement ? Ces deux concepts cohabitent encore volontiers avec le domaine de l’utopie. Le surarmement reste, plus que jamais, comme nous l’avons vu, la règle. Ce constat scelle l’échec cinglant du multilatéralisme et il dément les thèses irénistes de ceux qui ont proclamé, au sortir de la guerre froide, l’avènement de la paix universelle favorisée par le triomphe du modèle libre-échangiste McWorld et de la démocratisation sur le totalitarisme soviétique. L’ombre du nucléaire est plus que jamais présente, et, comme le disait Albert Einstein à son époque : « J’ignore comment sera la troisième guerre mondiale, mais nous avons la certitude, en revanche, qu’il n’y aura pas beaucoup de monde pour voir la quatrième » ! En effet, les traités sont finalement peu respectés, ou contournés ou annulés. Les États-Unis se sont retirés unilatéralement ces dernières années de plusieurs accords internationaux dont celui sur le climat, sur le nucléaire iranien, du traité ABM en 2001 22 , mais surtout, le 1 er février 2019, du traité des armes nucléaires de portée intermédiaire (Intermediate-Range Nuclear Force Treaty, INF) signé en 1987 par Ronald Reagan et Mikhaïl Gorbatchev, grand symbole de la fin de la guerre froide et qui était jusqu’à maintenant un des piliers les plus importants de l’architecture sécuritaire européenne depuis plus de trente ans. Ce traité interdit l’usage de missiles nucléaires d’une portée de 500 à 5 000 km qui sont les armes les plus redoutées et particulièrement dangereuses car réduisant le temps de réaction à une frappe nucléaire à dix minutes au lieu de trente pour des missiles balistiques intercontinentaux, rendant une défense très complexe. Le retrait des États-Unis du traité INF permet de facto un retour en Europe de ces missiles et vient augmenter le risque, certes peu probable, de guerre nucléaire ou néoguerre froide sur le continent européen et encore plus si le traité New Start, précédemment cité, vient lui aussi à être abandonné. La raison officielle est une réaction au déploiement de missiles russes appelés « Novator », qui pourraient frapper jusqu’à 1 500 km (ce qui est démenti par la Russie). Les États-Unis non seulement sortent des traités, mais voient l’arme nucléaire comme un arsenal tout à fait utilisable, par exemple en juin 2019, l’état-major américain a publié, peut-être par erreur, un document intitulé « Nuclear Operations » référencé JP-3-72 qui affirme que « le nucléaire peut s’utiliser comme n’importe quelle munition dès lors que la cible est militaire et qu’obtenir la victoire l’impose 23 »... On peut ajouter à ce constat le fait que Washington a également contourné la règle en implantant en Roumanie le système Aegis doté de lanceurs verticaux de 4 Mk41 de Lockheed Martin qui accueille le missile Tomahawk, lequel peut être armé d’une charge conventionnelle ou nucléaire, sa portée atteignant 2 500 km, donc de quoi frapper une partie de la « Russie utile ». Le maigre bilan de décennies de désarmement Le thème du désarmement est loin d’être une affaire récente : les Pères de l’Église déjà, à l’aube du christianisme, avaient décidé, aux conciles de Nicée et de Clermont, de mettre « hors la loi les armes les plus cruelles ». L’Église catholique a poursuivi cette action, en prônant l’application (sous peine d’excommunication) de la « trêve de Dieu », des journées où il était formellement interdit de combattre. Plus tard, en 1648, au lendemain de la guerre de Trente Ans, les négociateurs du traité de Westphalie ont évoqué l’officialisation des concepts de « désarmement régional » et d’« équilibre affiché des forces ». En 1899, la conférence de La Haye propose « l’arbitrage obligatoire », et en 1919, les Alliés ratifient la création de la Société des Nations, et sur les « quatorze points » de son pacte, dit « de Wilson », trois concernent ce souhait d’en finir avec l’utilisation de la guerre comme instrument privilégié de résolution des contentieux. Mais les résultats obtenus par la SDN, c’est le moins que l’on puisse écrire, seront cruellement dérisoires... À la fin des années 1950, après l’échec cinglant des plans de désarmement général et complet (sic), les armes nucléaires vont devenir l’objet majeur, jusqu’au milieu des années 1990, des principales négociations, notamment dans le cadre des discussions bilatérales américano-soviétiques. Les accords et les traités ne vont certes pas manquer : le but recherché par les deux grands, à cette époque, est d’obtenir des autres nations un engagement de renonciation à l’acquisition d’armes nucléaires. En termes de contrôle des armements, la stabilité stratégique impliquait que les deux superpuissances disposent de capacités militaires « essentiellement équivalentes », comme le soulignait la fameuse doctrine Kissinger : une équivalence n’impliquant pas l’égalité absolue de chacun des deux partenaires dans les différents secteurs des systèmes d’armes. Et, jusqu’en 1985-1986, chacun, de facto, s’est renforcé dans le système où son adversaire lui paraissait le plus menaçant. Les exemples d’accords et de traités n’ont certes pas manqué depuis 1965-1985. Parmi eux, on peut citer une vingtaine de traités multilatéraux, à portée théorique indéniable, mais aux conséquences concrètes plus que modestes. Leurs objectifs étaient d’éviter la militarisation, nucléaire ou non, de certaines zones ; de geler ou limiter le nombre et les aspects qualitatifs des vecteurs d’armes nucléaires ; de restreindre les essais ou systèmes d’armes ; de prévenir la dissémination de certaines armes parmi les États ; d’interdire différents moyens de guerre ; de faire observer le droit international dans les conflits armés et de notifier préalablement des activités militaires... Citons notamment : a) Des accords destinés à éviter la militarisation de certains environnements : la convention sur la modification de l’environnement du 5 octobre 1978 (31 signataires) qui interdit « l’utilisation à des fins hostiles de techniques susceptibles de modifier substantiellement l’environnement ». Mais la manipulation dudit environnement par le canal de techniques utilisables dans le cadre d’opérations militaires « tactiques » a échappé à cette interdiction ; le traité de désarmement sur le fond des mers et des océans du 18 mai 1972 (70 signataires) qui interdit de placer des armes nucléaires sur les fonds marins au-delà d’une zone de 12 milles mais pas d’installer sur ces mêmes fonds marins des bases de maintenance des systèmes d’armes nucléaires mobiles. b) Des accords destinés à éviter la prolifération nucléaire : le plus célèbre est le TNP du 5 mars 1970 (114 signataires), qui visait à interdire les transferts d’armes nucléaires par les États dotés de ces armes et leur acquisition par ceux qui en sont dépourvus. Cela pour éviter le détournement des matières fissiles destinées à des fins civiles vers la fabrication d’engins explosifs. Ce traité sera très vite sapé de facto, tant par la politique des fournisseurs de produits nucléaires que par le non-respect des obligations de désarmement contractées par les puissances dotées d’armes atomiques. c) Des accords destinés à interdire la fabrication de certains types d’armes : la convention sur les armes biologiques du 10 avril 1972, entrée en vigueur le 26 mars 1975 (92 signataires), qui prohibe la recherche, le développement, la fabrication et l’usage de ces armes ! la convention sur l’interdiction de l’utilisation de certaines armes conventionnelles, signée le 10 avril 1981, portant sur les systèmes d’armes « jugés excessivement pernicieux ou aux effets indiscriminés » ; Parmi les accords portant sur la limitation des essais nucléaires, on peut citer notamment : le traité d’interdiction partielle des essais, d’octobre 1967 (112 signataires), qui interdit les essais nucléaires dans l’atmosphère, l’espace extra-atmosphérique et sous l’eau. Ce traité a contribué à réduire la pollution radioactive provoquée par les explosions nucléaires, mais n’impliquait pas les essais souterrains ; le traité sur l’espace extra-atmosphérique du 10 octobre 1967 (82 signataires) qui interdit la mise en orbite autour de la Terre des armes de destruction massive... mais qui laisse l’espace libre quant au déploiement des autres systèmes d’armes ! le traité sur la limitation des essais souterrains, signé le 2 juillet 1974, qui limite la puissance explosive des armes nucléaires à 150 kt. Un seuil si élevé que les principaux États concernés ont pu le signer sans réserve tout en poursuivant sereinement leurs programmes de développement ! e) Des accords destinés à éviter la militarisation, conventionnelle ou nucléaire, de certaines zones géographiques : contrairement aux précédents, leurs bilans se sont parfois révélés positifs. Il s’agit, tout d’abord, du traité de l’Antarctique. Un précurseur, signé dès le 1 er décembre 1959, entré en vigueur le 23 juin 1961 (21 signataires) et actualisé à Versailles (108 signataires) en décembre 1991. Les États s’engagent « à ce que le continent antarctique soit exclusivement utilisé à des fins pacifiques », disposition d’autant plus significative que le continent recensait un nombre particulièrement élevé de bases militaires, eu égard à sa localisation éminemment stratégique. Mais le plus riche en enseignements demeure le traité de Tlatelolco, signé en avril 1968 par 22 États latino-américains 24 , qui, pour la première fois, établit une zone dénucléarisée dans toute une région habitée du globe, l’Amérique latine. Le protocole 1 du traité souligne « que les États n’appartenant pas à l’Amérique latine seront tenus de maintenir leurs territoires localisés dans cette zone exempte d’armes nucléaires ». La Grande-Bretagne, à cette date, et la France, avec son département de Guyane, sont visées. Logiquement, quatre nations latino- américaines susceptibles de se doter du nucléaire militaire et qui ont d’ailleurs émis des projets dans ce sens ne signent pas : Cuba (exclue de l’OEA depuis la révolution castriste), le Chili, l’Argentine et le Brésil. Les accords bilatéraux de Salt I et Salt II La décennie 1970 va s’illustrer par la signature de deux accords bilatéraux majeurs, Salt I et son avatar Salt II 25 , qui induisent non pas un désarmement mais une limitation. Salt I, signé le 26 mai 1972, par le président des États- Unis, Richard Nixon, et le numéro un de l’Union soviétique, Leonid Brejnev, portait sur la limitation des systèmes de missiles antibalistiques. Il stipulait que les États-Unis et l’URSS « déclarent leur intention commune d’arriver à la date la plus proche possible à l’arrêt de la course aux armes nucléaires ». Si les articles 1 et 2 imposent effectivement une réduction d’un type particulier de défense et gèlent le nombre total des vecteurs, le traité n’impose aucune restriction quant à l’amélioration qualitative des armes nucléaires, ni au nombre d’ogives équipant chaque missile... Rappelons que dès 1974 et la rencontre bilatérale de Vladivostok, les Russes vont moderniser leur arsenal en mettant sur pied des engins balistiques marvés, puis mirvés 26 . Et les Américains, tout en désarmant leurs missiles ABM-1, vont se lancer, entre 1974 et 1977, via le complexe militaro-industriel, dans une R&D de plus en plus sophistiquée. Comme l’écrivait le général Pierre Marie Gallois, « la période immédiatement postérieure à la signature de Salt 1, présenté comme un grand pas vers le désarmement, a vu les Américains passer de quelque 8 000 ogives à plus de 20 000 et les Russes en faire autant portant leur arsenal de destruction à distance de 2 600 à 26 500 27 ». Les États- Unis et l’Union soviétique, loin de désarmer tout en feignant le contraire, avaient cent fois plus d’équipements que nécessaire pour exercer une dissuasion et ils étaient en mesure de raser mutuellement des centaines de fois leurs grandes villes, bref une course aux armements coûteuse devenue irrationnelle... Ces premières négociations ont largement contribué à renforcer des créneaux de production de plus en plus élaborés, au grand bénéfice du complexe militaro-industriel américain, d’une part, et du complexe militaro-bureaucratique soviétique, d’autre part. Compte tenu de l’obligation d’établir un bilan quinquennal de l’application concrète du traité, le successeur de Salt I, nommé logiquement « Salt II », sera négocié et signé à Vienne, le 18 juin 1979, par Jimmy Carter et Leonid Brejnev. Face à la dérive décrite plus haut, et suite aux multiples critiques émises notamment au sein des Nations unies, voire aux États-Unis eux-mêmes, les négociateurs de Salt II vont s’efforcer de travailler sur le nombre total d’ogives équipant de facto les véhicules porteurs 28 . Tout cela aurait effectivement pu aboutir à de probants résultats si Salt II était entré en vigueur... On le sait, en vertu de la Constitution américaine, c’est le Sénat qui autorise ou pas la ratification des traités internationaux signés par le Président, ce qui est loin d’être évident, surtout quand la majorité sénatoriale n’émarge pas au parti du Président. La majorité républicaine refusa alors au démocrate pacifiste Jimmy Carter la ratification de Salt II pour, une fois encore, des motivations de pure géographie électorale interne. La période 1985-2020 : du contrôle des armements au concept de désarmement, Start I, Start II, Start III et New Start Dans un contexte d’implosion de l’Union soviétique, trois traités illustrent la période : Start l, Start II, et Start III (New Start). Pour récapituler, Start I (Strategic Arms Reduction Treaty) porte non sur la limitation d’armes stratégiques défensives, mais sur la réduction des armes stratégiques offensives. Il est signé à Moscou le 31 juillet 1991 par Mikhaïl Gorbatchev et George H. Bush, et entre en vigueur le 5 décembre 1994, pour une durée initiale de quinze ans. Très ambitieux, Start I envisageait de réduire le nombre d’ogives stratégiques déployées de 10 000 à 6 000 unités pour chacun des signataires. Le bilan dressé à la fin de la période s’avère indéniablement plus modeste : on passe de 9 986 ogives américaines à 8 556 et de 10 237 russes à 7 449... Quant à Start II, signé le 3 janvier 1993, par George H. Bush et le successeur de Gorbatchev, Boris Eltsine, président de la nouvelle-née fédération de Russie, il prévoit la réduction des deux tiers des arsenaux stratégiques. Ratifié par le Sénat américain en janvier 1996, mais seulement en avril 2000 par les Russes, Start II ne sera jamais appliqué ! La suite n’est pas plus brillante en termes de réussite : le 24 mai 2002, George W. Bush et Vladimir Poutine signent le traité Sort (Strategic Offensive Reduction Treaty), ratifié le 8 mars 2003, qui confirme les trois phases de Start I, projette un nombre total d’ogives déployées à l’horizon 2012 compris entre 1 800 et 2 000 ogives, mais annule Start II ! Enfin, Start III (généralement appelé « New Start ») est signé le 8 avril 2010, à Prague, par Barack Obama et Dmitri Medvedev. Il envisage une réduction de la capacité opérationnelle des deux camps à 1 550 têtes nucléaires. Il n’englobe pas les armes tactiques, limitant le nombre de lanceurs nucléaires stratégiques déployés à 700. Notons cependant que les États-Unis, en 2018, ont soutenu que pour le rendre plus crédible, l’accord Start III devrait inclure la Chine. Toutefois, Pékin, qui considère que son arsenal est encore bien trop inférieur à celui de Moscou ou Washington, a refusé d’y participer. Son expiration, le 5 février, a été source de tensions entre Washington et Moscou. En octobre 2020, les États-Unis avaient souhaité que la Russie gèle son arsenal nucléaire, une demande bien évidemment jugée « inacceptable » par le Kremlin 29 . Toutefois, fin 2020, Américains et Russes semblaient s’être mis d’accord sur la possibilité d’un gel « conjoint » du nombre de têtes nucléaires, d’autant que Joe Biden a toujours été favorable aux traités de non-prolifération. Les traités multilatéraux Le dernier tiers de siècle s’est aussi illustré par trois traités majeurs, l’accord de Washington de 1987, celui de Paris de 1990 et le traité CTBT de 1996. L’accord de Washington : signé entre les États-Unis et l’URSS le 18 septembre 1987, à la suite des rencontres de Reykjavik, qui portait sur le démantèlement progressif des forces nucléaires « intermédiaires », c’est-à-dire, par convention, à portée inférieure à 5 500 km. Certes, mais ce type d’armes (bien malencontreusement baptisées « euromissiles », au prétexte que les rampes de missiles russes basées sur le flanc occidental de l’Oural pouvaient menacer les principales capitales européennes) est en réalité singulièrement composite. Il regroupe les « Forces nucléaires intermédiaires » (FNI), à savoir tous les missiles de portée comprise entre 1 000 et 5 500 km ; les « FNI à plus courte portée » (entre 500 et 1 000 km) ; et les « Forces nucléaires intermédiaires à portée la plus courte » (SNI), c’est-à- dire inférieure à 500 km. L’accord de Washington laissait de côté ces derniers, ainsi que l’artillerie nucléaire tactique et les systèmes basés à terre. Or, à cette époque déjà, rien n’empêchait techniquement d’équiper des sous-marins nucléaires de missiles de croisière. Bref, les accords de Washington ont permis le démantèlement de 7 à 8 % des forces nucléaires des 2 superpuissances. Le sommet de Paris, novembre 1990 : il mérite d’être qualifié d’événement de première importance au chapitre du contrôle des armements, 35 chefs d’État ou de gouvernement étaient présents, dont l’ensemble des chefs d’État européens, le président des États-Unis et son homologue canadien. Le Traité d’interdiction complète des essais nucléaires du 24 septembre 1996 (TICN ou CTBT pour les anglophones), qui interdit les 4 types d’essais nucléaires : atmosphérique, extra-atmosphérique, sous- marin et, fait nouveau, souterrain. Les 5 puissances membres permanents du Conseil de sécurité de l’ONU le signent. L’Union indienne s’abstient. Mais pour qu’il puisse entrer en vigueur, ce traité doit être ratifié par les 44 pays possédant des réacteurs nucléaires. Le 6 avril 1996, Londres et Paris sont les 2 premiers membres du Club nucléaire à le ratifier, après que la France a procédé, en 1995, à 8 ultimes essais dans le Pacifique sud (voir supra). En 2019, 183 États l’avaient signé et 28 ratifié. Parmi les 44 nations directement concernées, 3 ne l’avaient toujours pas signé, l’Union indienne, le Pakistan et la Corée du Nord ! Et 5 l’avaient signé mais pas ratifié, Israël, l’Égypte, l’Iran, les États-Unis et la Chine de Pékin. Aux États-Unis, le Sénat en a rejeté la ratification en 1999. Depuis, aucune administration n’a jamais réussi à faire ratifier le CTBT... En revanche, en 2000, Vladimir Poutine, alors bien disposé vis-à-vis de l’Occident, fit ratifier par la Douma non seulement le traité Start II, en souffrance depuis 1992, mais également le CTBT, signé en 1996, renvoyant ainsi la responsabilité d’une nouvelle course aux armements aux États-Unis. Relance de la course aux armements sur fond de néoguerre froide... Comme nous le rappelions dans le chapitre IV, les États-Unis, prisonniers d’une vision diabolisante de la Russie, assimilée à un clone de l’URSS totalitaire, et donc d’une représentation stratégique du monde héritée de la guerre froide, ont violé l’Acte fondateur Otan-Russie de 1997 qui impliquait de ne pas faire intégrer dans l’Alliance les pays de l’ex-pacte de Varsovie. Au lieu d’œuvrer à une alliance « panoccidentale » qui aurait donné toute sa place à la Russie face aux menaces communes, notamment chinoise et islamiste, les stratèges de Washington et les élites de McWorld n’ont eu de cesse d’exclure la Russie de l’espace occidental et de poursuivre l’encerclement du Heartland russe par les manœuvres de stationnement et d’extension, toujours plus vers l’est, des forces de l’Otan, jusque dans « l’étranger proche » russe : Pays baltes, Roumanie, Pologne, ex-Yougoslavie, Bulgarie, sans oublier la ligne rouge ukrainienne évoquée plus haut. Cet élargissement sans fin de l’Otan vers l’est et le soutien américano- occidental aux rébellions et oppositions antirusses en Géorgie, Ukraine, Kirghizistan ont contribué à rendre la Russie bien plus hostile encore envers l’Occident qu’elle ne l’était à la fin de la guerre froide. Cette stratégie visant à encercler la Russie et la priver de l’accès aux Mers chaudes puis à tenter de compromettre l’élargissement de son marché gazier ouest-européen est, depuis le milieu des années 2000 (guerre d’Irak, révolutions de « couleurs » ou de « velours » en Ukraine et Géorgie, etc.), un véritable casus belli pour Moscou. En réaction, la Russie poutinienne a renforcé sa coopération avec tous les ennemis de l’Occident : Chine, Corée du Nord, Venezuela, Iran 30 ... La conséquence directe de cette nouvelle guerre froide, dramatique pour la sécurité collective et pour la vieille Europe prise en tenailles, a été le retrait, à l’initiative des États-Unis, de nombreux accords de non-nuisance, de traités de non-prolifération (nucléaire et balistique) et de non-dissémination (armes conventionnelles) qui a permis à Washington, dans le cadre d’une véritable relance de la course aux armements, de retrouver des marges de manœuvre non seulement vis-à-vis de la Russie, mais aussi de la Chine. Cette dernière n’étant en fait contrainte par aucun traité de désarmement passé ou présent, le développement massif de son armement nucléaire, balistique et conventionnel ne souffre plus d’aucune limite... D’évidence, ces retraits américains des grands traités de désarmement et de contrôle des armes, suivis des réponses russes équivalentes sur fond de tensions en Ukraine, au Moyen-Orient et en Syrie, ont rendu plus probables que jamais des conflits entre les deux anciens grands du monde d’avant, y compris nucléaires. Ce retour redouté des conflits interétatiques concerne au premier chef l’Europe, théâtre d’interposition majeure entre la Russie et les forces atlantistes, mais également le Proche-Orient (armées russes et américaines se faisant face en Syrie), la mer Baltique, la mer de Chine et l’Asie en général (continent comptant le plus grand nombre de pays dotés de l’arme nucléaire : Chine, Taiwan, Corée du Nord, Corée du Sud, Pakistan, Inde). Ainsi, on notera qu’à peine un mois après la décision de Donald Trump de retirer les États-Unis du traité sur les forces nucléaires à portée intermédiaires (FNI), en août 2019, Washington a procédé à l’essai d’un missile balistique de moyenne portée qui a atteint sa cible après plus de 500 km de vol et qui n’a pas manqué de faire réagir la Russie comme la Chine, laquelle a dénoncé la recherche systématique de supériorité militaire par les États-Unis au risque d’une relance de la course aux armements dans le monde 31 . À partir de 2010, les États-Unis ont ainsi mis en place par le biais de l’Otan une véritable architecture globale de défense antimissile balistique en Europe (BMDE), couvrant cette fois tous les territoires des pays européens de l’Otan et qui, au passage, encercle la Russie, bien que prétextant être dirigée vers l’Iran... Ce système est objectivement destiné à rendre une frappe russe en retour impossible en cas d’une première frappe nucléaire de l’Otan. En 2014, il a été poursuivi et amélioré par les Américains qui ont ensuite utilisé l’annexion de la Crimée comme prétexte pour implémenter des systèmes de détection radar de défense aérienne supplémentaires et des destroyers. La course aux armements est donc loin d’être stoppée, car en réponse, les Russes développent leurs systèmes de défense : un des exemples les plus importants et inquiétants concerne les missiles hypersoniques Avangard, à la pointe de la technologie. Testé en 2018 et mis en service le 27 décembre 2019 (juste au moment de l’abandon du traité FNI), ce missile est extrêmement performant, évoluant à une vitesse moyenne de Mach 20 (le maximum étant Mach 27, tandis que les missiles guidés traditionnels évoluent aux alentours de Mach 5), et pouvant délivrer des charges nucléaires d’une puissance de 2 Mt 32 ... Autre particularité, ils sont capables de voler à une altitude anormalement basse (rasage) qui rend la détection difficile et trop tardive pour une réaction. Ils peuvent ainsi détruire les missiles intercontinentaux ennemis directement dans leurs silos, remettant en question l’efficacité même de la défense de l’Otan. Ce système a rendu Vladimir Poutine particulièrement fier du fait que « personne d’autre que nous n’a d’armes hypersoniques »... Précédemment, la Russie a également mis au point un missile balistique intercontinental du nom de Satan 2 ou « RS-28 Sarmat », très furtif et qui serait capable de détruire un territoire comme la France en quelques secondes. Washington se prépare à un affrontement direct contre la Russie, et cela de manière officielle, comme en témoigne le programme d’exercice « Defender 2020 », qui avait pour but de simuler l’attaque d’un des pays de l’Otan. Pour cela, 37 000 soldats dont 20 000 Américains étaient attendus pour un budget de 315 millions d’euros, chiffre qui a finalement été considérablement réduit en raison de la pandémie de la Covid-19 (6 000 soldats américains). Cependant, cela met clairement en lumière les objectifs de Washington : afficher leur domination sur l’Europe et leurs menaces à l’égard de la Russie. Toutefois, en se concentrant sur « l’ennemi russe », l’Otan semble oublier la Chine, pourtant beaucoup plus menaçante, à terme, d’un point de vue géocivilisationnel, économique et stratégique, que la Russie. Les forces armées américaines pourraient en effet être dépassées dans quelques dizaines d’années par la Chine en cas de conflit dans le Pacifique. Ce déclassement est favorisé par la priorité américaine accordée au Moyen-Orient et à la Russie. De plus, la plupart des bases militaires américaines du Pacifique ouest manquent d’infrastructures de défense et sont vulnérables. Enfin, il ne faut pas oublier que la Chine nucléaire possède aussi l’armée la plus vaste au monde avec plus de 2 millions de soldats opérationnels (et 800 000 réservistes) et un budget de la Défense presque trois fois supérieur à celui de la Russie (172 milliards d’euros contre 64). En outre, elle a fortement investi dans les missiles balistiques de haute précision. Même si la puissance militaire américaine dispose encore d’une bonne marge de sécurité, dans un monde en évolution très rapide, les rapports de force peuvent évoluer de façon surprenante. De plus, la Chine développe elle aussi les armes hypersoniques, les outils de guerre informatique ou l’intelligence artificielle, domaine dans lequel elle aurait quasiment déjà atteint l’égalité avec les États-Unis et les aurait peut-être même déjà dépassés, notamment l’informatique quantique. 1. Projet de recherche qui produisit la première bombe atomique durant la Seconde Guerre mondiale. 2. Statista Research Department, « Worldwide number of nuclear tests from 1945 to 2020 », 1 er décembre 2020. 3. Missile balistique intercontinental américain à ogive nucléaire. 4. Bombe nucléaire à hydrogène développée par l’Union soviétique, pesant 57 Mt, considérée comme la bombe la plus puissante ayant été créée (aujourd’hui abandonnée). 5. Le souffle de l’explosion balayerait tous les bâtiments sur 3 000 km² et les radiations thermiques s’étendraient sur 17 000 km² ; les morts s’élèveraient (pour Paris) à 7 millions, in « Voici l’étendue des dégâts si une bombe nucléaire Tsar frappait Paris », L’Express, 3 avril 2015. 6. Sous-marins nucléaires lanceurs d’engins. 7. Hans M. Kristensen et Matt Korda, « Status of World Nuclear Forces », Federation of American Scientist, septembre 2020. 8. Sénat : « L’évolution de l’arsenal nucléaire russe », Désarmement, non-proliférations nucléaires et sécurité de la France, rapport d’information, 19 janvier 2021. 9. En plus des SNLE, l’arsenal naval nucléaire comporte des lanceurs de missiles de croisière (SSGN) : BGM109 Tomahawk pour les États-Unis, SS-N-19 pour la Russie et nom inconnu pour les Chinois. Les États-Unis ont cinquante sous-marins SSGN, le Royaume-Uni et la France en ont aussi. Les BGM109 sont à double capacité : conventionnelle et nucléaire. On peut y ajouter les missiles de croisière lancés à partir de plates-formes aériennes. 10. Hans M. Kristensen et Matt Korda, « Status of World Nuclear Forces », art. cit. 11. Sous-marins nucléaires d’attaque. 12. « Corée du Nord : Le difficile accès à la dissuasion », Défense et sécurité internationale, n o 121, février 2016, p. 21. 13. Traité entré en vigueur en 1970 visant à empêcher la prolifération des armes nucléaires, à favoriser l’utilisation pacifique de l’énergie nucléaire et à faire progresser l’objectif du désarmement nucléaire. 14. Bombes mêlant des explosifs classiques et éléments radioactifs comme ceux utilisés en médecine ou déchets radioactifs. 15. « Des caractéristiques dangereuses pour la sécurité internationale », rapport d’information du Sénat, 19 janvier 2021. 16. Général iranien commandant de la Force Al-Qods, unité d’élite des Pasdarans, était très populaire en Iran. 17. Physicien, général des Pasdarans et haut responsable dans le programme nucléaire iranien, tué le 27 novembre 2020. 18. Ver informatique conçu par la NSA avec l’unité israélienne 8200 dans le cadre de l’opération Olympic Games. 19. Le « pacte de coopération stratégique » signé le 27 mars 2021 à Téhéran. 20. Le TCA fixe des interdictions pour mettre fin aux transferts d’armes, de munitions et d’articles associés entre États, notamment si l’on soupçonne qu’ils sont utilisés pour commettre ou faciliter des crimes contre l’humanité ou de guerre. 21. Entre 2014 et 2019, de 4 100 véhicules blindés ont été livrés à l’Arabie saoudite par l’Autriche, le Canada, la France, la Géorgie, l’Afrique du Sud et la Turquie, et 338 tanks par les seuls États-Unis. La France a livré quant à elle 1 389 véhicules blindés de combat à l’Arabie saoudite. 22. Traité qui limitait les systèmes antimissiles balistiques, retrait présenté par George W. Bush comme une première étape vers un bouclier de défense antimissiles destiné à protéger les États-Unis et ses alliés. 23. « Du danger pour l’Europe de la stratégie nucléaire des États-Unis et de l’OTAN », Capital, 30 mai 2020. 24. L’accord distingue entre l’énergie nucléaire à but militaire, condamnée, et l’énergie nucléaire civile, encouragée pour contribuer à la croissance et au développement des États concernés. 25. Salt est l’abréviation de l’anglais Strategic Arms Limitation Talks (« négociations sur la limitation des armes stratégiques »). 26. Missiles marvés : missiles dotés de plusieurs ogives nucléaires programmées sur un même objectif. Missiles mirvés : missiles dotés de plusieurs ogives nucléaires programmées, chacune sur des objectifs différents. 27. Source : conversations entre Jacques Soppelsa et le général Pierre Marie Gallois rapportées dans son site web. 28. Un plafond de 10 ogives pour les missiles balistiques et de bombardiers et de 14 ogives pour les missiles de sous-marins. 29. « Qu’est-ce que le New Start, ce traité qui ravive les tensions entre Washington et Moscou ? », Le Monde, 14 octobre 2020. 30. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 31. Michel Cabirol, « Pourquoi les États-Unis sont sortis du Traité sur les forces nucléaires à portée intermédiaire », La Tribune, 23 août 2019. 32. César Frezat, « La Russie à l’avant-garde des missiles hypersoniques », note du Cerpa, avril 2019. CHAPITRE IX Le crime organisé : grand gagnant de la mondialisation ! « S’il n’y a pas de banque, il n’y a pas de blanchiment ; s’il n’y a pas de blanchiment, il n’y a pas de crime. C’est une équation qu’il faut bien avoir en tête. » Éric Vernier « Actuellement, l’économie a besoin de l’argent sale pour fonctionner. » Noël Pons Accélérée à la fin des années 1980, la mondialisation marchande, avec ses trois volets (libre circulation des biens, des personnes et de l’argent), ses effets en termes de dérégulation, d’ouverture des frontières et de migrations de masse, a nettement contribué à l’internationalisation et à l’intensification du crime organisé. Cette accélération a été portée par trois facteurs liés entre eux : l’extension du marché des drogues sur l’ensemble de la société occidentale ; la nécessité d’acheminer cette drogue depuis le producteur jusqu’aux principaux pays consommateurs séparés par des milliers de kilomètres ; l’émergence des paradis fiscaux et sociétés off-shore devenus des centres financiers recyclant des capitaux illégaux issus de ces trafics parasitaires et nocifs. Cette internationalisation a étroitement suivi les vagues successives de la mondialisation anglo-saxonne avec ses abolitions de contrôles sur les frontières et les échanges financiers. La criminalité transnationale organisée (CTO) est devenue un acteur géopolitique incontournable, certes non étatique, hybride, illégal, mais qui détient une telle puissance qu’il peut parfois faire plier des États et corrompre leurs décideurs, leurs fonctionnaires et leurs forces de l’ordre. Les pays les plus faibles sont les plus exposés, mais le péril est global, car les flux d’argent sale et les stupéfiants pointent presque tous vers les riches économies du Nord qui sont les plus gros marchés et qui possèdent les grandes banques et paradis fiscaux les plus sûrs. Le souci premier des CTO est, une fois leurs marchandises illicites vendues, de faire rentrer l’argent sale dans l’économie légale. Dans une société toujours plus mondialisée et interconnectée, les possibilités ont exponentiellement augmenté jusqu’à offrir aux mafias l’occasion d’ériger de véritables multinationales du crime où toutes les activités rentables – en plus de la drogue – sont les bienvenues. Là aussi, l’idée de la « mondialisation heureuse » trouve de sérieuses limites : les mafias aiment par-dessus tout les accords de libre-échange, l’ouverture des frontières, les déréglementations, le capitalisme mondialisé et même l’économie digitale. Aujourd’hui, leurs activités comprennent, outre la production et la vente de drogues, les trafics d’armes, d’êtres humains/migrants, la prostitution, l’élimination des déchets toxiques, le vol de matériaux, le braconnage, le trafic d’œuvres d’art, d’animaux, ou toute autre activité illégale, y compris les trafics d’organes et le cybercrime. D’après l’expert Éric Vernier, qui a croisé les statistiques de l’ONU, du FMI, du Groupe d’action financière sur le blanchiment de capitaux (Gafi) et d’ONG spécialisées, la richesse dégagée annuelle des mafias au niveau mondial avoisinerait 2 000 milliards de dollars par an. L’expert Jean de Maillard 1 parle ainsi de « produit criminel brut » (PCB). La comparaison avec les économies légales est vertigineuse, car les réseaux criminels représenteraient alors la « huitième puissance mondiale » et seraient membres du G8 s’ils étaient un État ! Le PCB des mafias est supérieur au PIB de pays comme l’Italie ou le Brésil (1 800 milliards de dollars), et comparable à celui de la France (2 100 en 2019), ou même du continent africain tout entier 2 , soit près de 2 % du PIB mondial 3 . À noter qu’Eurostat a demandé aux pays de l’UE d’inclure dans le calcul de leur PIB les recettes de la drogue et de la prostitution 4 ... Quant à l’argent sale en général, si l’on inclut dans ce chiffre global l’argent sale « noir » du crime, « l’argent gris » des petites fraudes ou de l’argent facile, les abus de biens sociaux, les faux bilans et les détournements de fonds non liés aux mafias, il équivaut à 7 000 milliards de dollars chaque année, soit 10 % du PIB mondial. Les détournements de fonds publics représenteraient environ 2 600 milliards, soit 5 % du PIB mondial 5 . En France, la seule fraude à la sécurité sociale drainerait chaque année des dizaines de milliards vers des pays africains. La Cour des comptes française a d’ailleurs estimé cette fraude entre 20 et 25 milliards d’euros par an 6 . Les principaux responsables du blanchiment de masse et de l’argent sale présents sur le marché restent toutefois et de loin les organisations criminelles de grande envergure (mafias, cartels), notamment grâce au trafic de stupéfiants. Blanchiment : la mondialisation financière et le capitalisme dérégulé, des opportunités pour le crime organisé D’après Rhoda Weeks-Brown, conseillère directrice du département juridique du FMI, le blanchiment d’argent représenterait entre 1 600 et 4 000 milliards de dollars par an, soit 2 à 5 % du PIB mondial ou près de 3 000 milliards en moyenne ou 10 milliards de dollars par jour, dont 600 milliards chaque année rien que pour le trafic de stupéfiants 7 . Selon la définition du Gafi, le blanchiment de capitaux consiste à « retraiter des produits d’origine criminelle pour en masquer l’origine illégale, de manière à légitimer des biens mal acquis ». Tout trafic ou activité illégale d’envergure nécessite à un moment ou à un autre d’être blanchi, recyclé dans l’économie légale, afin que les organisations criminelles puissent l’utiliser. La méthode classique consiste à créer des entreprises qui perçoivent l’argent illégal et le transforment en gain légal transférable dans des institutions bancaires officielles. Les pays où l’argent est blanchi sont d’abord ceux ayant des législations fiscales et réglementations bancaires particulières et/ou utilisant le secret bancaire. Une fois les fonds entrés dans le système financier, ils « sont réintroduits dans des activités économiques légitimes (immobilier, produits de luxe, création d’entreprises) », processus facilité par les nouveaux moyens de paiement, la libéralisation et la dérégulation des marchés financiers. Il serait en effet naïf de croire que les criminels sont de simples délinquants analphabètes, car les personnes en charge des comptes et du blanchiment dans ces organisations sortent souvent des meilleures écoles. Ils connaissent donc parfaitement le système bancaire et les façons de procéder pour blanchir l’argent grâce aux moyens légaux, via des techniques de plus en plus complexes (que ce soit à réaliser comme à démanteler). C’est grâce au blanchiment que les organisations criminelles perdurent, faute de quoi elles ne pourraient pas réinvestir. « Dans de nombreux pays, elles possèdent des secteurs entiers de l’économie. Les fonds qu’elles détiennent seraient d’au moins 4 000 milliards de dollars ». Le blanchiment de capitaux permet à la criminalité organisée d’acquérir ou de contrôler des pans entiers de l’économie par ses investissements. Si l’on compare les moyens humains et financiers des organisations criminelles à ceux des organismes de lutte, on se rend compte que le combat est inégal : les mafias regroupent bien plus de monde et surtout des sommes d’argent beaucoup plus importantes... À titre d’exemple, le budget de Tracfin (organisme de lutte contre le blanchiment international) est de quelques millions d’euros seulement, somme dérisoire comparée à celles des mafias. Le trafic de drogue, entreprise presque aussi lucrative que le pétrole ! En se référant aux données de la production de drogue dans le monde fournies par l’United Nations Office on Drugs and Crime 8 (UNODC) et Europol, on évalue le revenu mondial annuel du trafic de drogue entre 600 et 1 000 milliards de dollars. La production de la seule cocaïne aurait atteint le niveau record de 1 976 tonnes en 2017. « La drogue représenterait la 3 e économie du monde, après le pétrole et l’alimentation, devant les ventes d’armes (dont une partie est vendue en contrebande). Avec un chiffre d’affaires d’environ 1 000 milliards de dollars, le commerce de la drogue est de surcroît très rentable, puisque les bénéfices atteindraient la moitié de cette somme avec 80 % blanchis 9 . » Pour la distribution, le plus grand marché identifié est sans surprise l’Amérique du Nord, qui absorbe à elle seule 44 % des ventes, suivie par l’Europe, avec 33 %. Ceci nous rappelle qu’il n’y a pas de vente de drogue sans consommateurs, notamment dans les pays riches, et que la demande en Occident découle aussi d’une culture de l’addiction et de l’hédonisme inhérente aux antivaleurs véhiculées par McWorld et les stars ou antimodèles du show-biz. Pour ce qui est de l’Europe, le marché de la drogue a été estimé à 30 milliards d’euros en 2017, selon Europol 10 , le marché du cannabis détenant la première position, avec le Maroc comme premier fournisseur. Le même organisme international a recensé 5 000 groupes criminels internationaux organisés sévissant dans des pays de l’Union européenne, plus d’un tiers d’entre eux se livrant au trafic de drogue 11 . Le trou noir narco-islamiste afghan Depuis l’invasion soviétique (années 1980) et les guerres civiles de 1980-1990, jusqu’à la montée en puissance des talibans en 2000, l’Afghanistan est devenu la capitale mondiale de l’opium. La culture du pavot s’y est imposée très tôt (1950), comme une source de revenus importante pour les paysans, car facile à cultiver, peu consommatrice d’eau, et donc très rentable (bien plus que le blé). L’Afghanistan est le premier producteur d’opium, avec 90 % de la production mondiale. Selon l’ONUDC, la moitié des revenus des talibans (voire 65 %) en proviendrait. L’emploi et la sécurité que les talibans ont apportés à la population grâce au trafic leur ont permis de gagner le soutien de celle- ci, notamment la partie rurale pachtoune. L’ONUDC a estimé que les groupes terroristes et insurgés ont recueilli environ 150 millions de dollars en 2016 grâce au commerce afghan d’opiacés, et aux taxes prélevées sur la culture du pavot. Le Pakistan, par sa proximité avec l’Afghanistan, connaît de gros problèmes de santé publique liés à la consommation de stupéfiants : l’héroïne y est la drogue la plus consommée avec une forte augmentation chez les adolescents. Idem en Iran, où le ministère de l’Intérieur a annoncé en 2018 que 3 % de la population était dépendante. Par ailleurs, 75 tonnes d’héroïne arriveraient chaque année en Russie 12 , où l’impact est également très fort, de même dans les pays d’Asie centrale, au Tadjikistan par exemple, où le trafic venant d’Afghanistan générerait environ 2,7 milliards de dollars par an, ce qui en fait une source de revenus bien plus importante que les activités légales. Sur la route du nord qui relie l’Afghanistan au marché européen opèrent des organisations criminelles qui utilisent des voitures de luxe avec des cachettes sophistiquées et impossibles à détecter, même avec des scanners ultraperformants de dernière génération fournis par les États-Unis. Ainsi, en 2019-2020, à la suite d’opérations policières entre plusieurs pays, ces gangs, basés notamment à l’est de la Turquie, ont fait passer de l’héroïne afghane à travers l’Iran, l’Asie centrale, la Russie, la Pologne et l’Allemagne avec pour destination finale les Pays-Bas. Une véritable multinationale fonctionnait dans tous ces pays en s’appuyant sur les diasporas turques de Hollande. C’est ainsi qu’en 2019, une saisie record a été effectuée au Kazakhstan avec plus d’une tonne d’héroïne dissimulée dans des grosses plaques de marbre livrées depuis une usine iranienne. Aujourd’hui, le bilan est plus que catastrophique : les talibans reviennent sur le devant de la scène par l’accord historique signé le 29 février 2020 à Doha avec les États-Unis, après une guerre de près de vingt ans menée pour les éliminer... Cet accord est la marque du profond échec américain dans la région qui se double d’un gâchis de 800 milliards de dollars. Cet accord engage les Américains à retirer progressivement leurs troupes présentes dans le pays, ce qui constitue un véritable danger pour le Gouvernement et le peuple afghans, car il acte que les talibans sont redevenus assez puissants pour négocier avec Washington et qu’ils pourraient, par la suite, revenir en force sur la scène politique du pays. Des pourparlers pour un nouvel accord ont débuté le 12 septembre 2020 13 , les talibans espérant avoir les mains libres avant l’automne 2021, date à laquelle les troupes américaines devraient avoir entièrement quitté le pays, si Joe Biden ne revient pas sur cette décision de Donald Trump. Le gouvernement afghan serait alors à la merci des talibans, qui contrôlaient déjà 80 % du pays en juillet 2021. Géographie du crime organisé Bénéficiaires nets de la mondialisation marchande, les groupes criminels et mafieux, qui gèrent des territoires et quartiers défendus si besoin par les armes – tout en étant connectés à des réseaux mondiaux d’approvisionnement et d’exportation –, sont les champions de la « glocalisation » (alliage de mondialisation et de local). Ils savent s’adapter à n’importe quel changement socio-économique et peuvent modifier le système en place en faveur de leurs intérêts. Ils instaurent des méthodes de gestion sophistiquées et des logistiques internationales et locales performantes qui permettent d’acheminer les marchandises criminelles sur des dizaines de milliers de kilomètres. La mondialisation a permis d’étendre le crime organisé sur les cinq continents, avec son lot de violence, de corruption et de déstabilisation sociale. L’Europe occidentale elle-même n’a pu échapper à certaines formes de criminalité organisée et territorialisée, dans de nombreux quartiers de non-droit et de contre-société qui vivent de facto sous le contrôle de narcopouvoirs locaux. À l’échelle globale, les zones les plus criminogènes se situent dans les milieux les plus défavorisés, nomment d’Amérique centrale (Salvador, Honduras, Mexique, Haïti...), du Sud (Brésil, Bolivie, Pérou), du Caucase, des Balkans, d’Asie centrale (Afghanistan, Ouzbékistan, Tadjikistan) et d’Asie du Sud-Est, mais également de l’Afrique (Nigeria, Somalie, Maroc, etc.). Les mafias et autres organisations criminelles ont d’ailleurs tout intérêt à maintenir la population de leurs territoires dans la pauvreté et l’illettrisme afin d’augmenter leur pouvoir d’attraction et leur emprise. On le voit par exemple en Amérique du Sud, où la culture de la coca (comme le cannabis au Maroc) permet à des centaines de milliers de paysans de survivre 14 . Les pays de l’Est européen ne sont pas en reste : les organisations criminelles y sont particulièrement développées (Kosovo, Albanie, Russie, Bulgarie, Serbie, Monténégro, Turquie). La drogue qui entre aux États-Unis transite par les Caraïbes, l’Amérique centrale, les Andes. Les trois principales productions ont longtemps été situées dans le Croissant d’or (Pakistan, Iran, Afghanistan) et le Triangle d’or pour l’opium (Birmanie, Thaïlande, Laos) et la Ceinture blanche pour la cocaïne (Colombie, Bolivie, Pérou, Équateur, Brésil). Aujourd’hui, c’est l’Afghanistan qui concentre la majorité de la production mondiale de l’héroïne. Toutefois, la zone de consommation est essentiellement, en termes de valeur, l’Europe occidentale et l’Amérique du Nord. Les produits stupéfiants naturels sont nombreux, mais la légalisation du cannabis dans certains endroits (Espagne, Pays-Bas, Californie) a donné lieu à un développement de la production d’amphétamine, d’opioïdes, d’ecstasy ou d’autres drogues de synthèse fabriquées dans des laboratoires clandestins extrêmement mobiles. Afin d’échapper aux saisies, les trafiquants modifient donc sans cesse des composants, souvent légaux, avant de les utiliser comme psychotropes. Ces drogues sont très souvent vendues au moyen du Darknet et produites en masse en Chine, notamment, dont les réseaux criminels bénéficient d’une grande partie des délocalisations et sous-traitance de productions chimiques occidentales, créant ainsi une distinction compliquée entre drogues et médicaments... L’Asie du Sud-Est est d’ailleurs aujourd’hui l’épicentre du trafic mondial de drogue de synthèse, avec un chiffre d’affaires de plusieurs dizaines de milliards de dollars par an provenant de laboratoires clandestins. La production de drogue est telle que, même avec les saisies records de ces dernières années, les trafiquants sont toujours capables de remplacer leurs marchandises pour agir efficacement sur l’offre. Les organismes de détection et de répression ne doivent donc plus mesurer leur succès aux quantités de drogue saisies, mais plutôt au nombre d’organisations et de groupes criminels transnationaux spécialisés dans le trafic de drogue démantelés. Or, il faut pour cela recourir à des méthodes de plus en plus sophistiquées, développer une masse critique de connaissances de base et veiller à l’échange d’informations opérationnelles entre les organismes de détection et de répression et les unités spécialisées de différents pays. Par ailleurs, le « modèle économique » des groupes criminels organisés évolue, et ils se transforment en réseaux de plus en plus indépendants et difficiles à contrer. Ils ont même souvent une longueur d’avance sur les États, dont l’évolution des procédures judiciaires et des lois est bien plus lente que la capacité d’adaptation des mafias. De plus, les moyens pour le transport des marchandises sont de plus en plus sophistiqués : les groupes criminels transportant leurs drogues par des « narco-sous-marins », des drones, des bolides et porte-conteneurs sont de plus en plus difficiles à détecter. Certains ont par exemple été interceptés en Espagne avec 3 tonnes de cocaïne en 2019 15 , et d’autres opérations antidrogue ont même permis de saisir plus de 5 tonnes de stupéfiants dans un sous-marin artisanal au large du Panamá... Mafias italiennes Les mafias italiennes constituent un véritable phénomène en Europe parce que ces OCT, qui bénéficient de complicités d’une partie des populations les plus défavorisées et des classes politiques du sud de l’Italie, sont les plus anciennes, les plus enracinées et les plus popularisées. Ces organisations sont aussi fort très présentes au niveau international et pour elles, l’ouverture des frontières inhérentes à l’espace Schengen a été une véritable aubaine, tout comme l’ont été en général la mondialisation et la libre circulation des biens, des personnes et des services chères aux responsables européens. À l’origine, le phénomène était purement local et territorialisé, toutefois, après 1945, les mafiosi ont largement profité de l’immigration massive d’Italiens aux États-Unis, en Amérique latine, en Europe, en Australie et au Canada, pour étendre leur réseau criminel à l’échelle planétaire. La plus célèbre, Cosa nostra, pur produit de la mondialisation anglo-saxonne dans sa version moderne, s’est implantée aux États-Unis, au Canada et en Italie pour y régner sur le crime, avant d’être remplacée ces dernières décennies par des mafias italiennes concurrentes calabraise et napolitaine : la Camorra en Campanie, la N’dranghetta en Calabre (la plus puissante et la plus traditionnelle). La Sacra corona unita des Pouilles et la Stidda en Sicile sont plus récentes, mais elles sont bien moins puissantes que les pieuvres napolitaine et calabraise. Selon le criminologue Francesco Calderoni, professeur à l’Università Cattolica del Sacro Cuore de Milan et chercheur au Transcrime (centre de recherche sur le crime international), le montant annuel des gains de ces mafias serait de 10,7 milliards d’euros par an, soit 0,7 % du PIB italien. L’extorsion de fonds demeure, avec la drogue, l’activité principale. La Camorra et la N’dranghetta engrangent aujourd’hui les plus hauts revenus, avec respectivement 3,3 et 3 milliards d’euros annuels, et ces mafias ont dépassé de loin la Cosa nostra sicilienne, désormais moribonde après avoir été presque vaincue par l’État italien suite aux excès du parrain Toto Riina et à sa folle tentative de défier l’État par le terrorisme, ce qui a provoqué une série de dénonciations de « repentis » et des représailles judiciaires sans précédent dans les années 1992-1997. Elles totaliseraient 68 % des activités mafieuses en Italie. On a recensé depuis toujours les ingérences de la mafia dans la politique italienne, surtout dans la partie sud de l’Italie. D’après l’Autorité nationale anticorruption (Anac 16 ), le secteur le plus touché par la corruption est celui des travaux publics, suivi de la gestion des déchets, très prisé par les mafias calabraise et napolitaine, qui les enterrent illégalement dans le sol italien 17 ou ailleurs comme dans les pays de l’Est. D’après le rapport sur la corruption de l’ONG Transparency International 18 , l’Italie, avec 51 points sur 100 et classée 51 sur 198, fait partie des pays les plus corrompus d’Europe. Depuis des décennies, même des villes du Nord comme Turin ou Milan, de tradition non mafieuse, ont été investies par les mafias du Sud, surtout la N’dranghetta. Ceci dit, la mondialisation marchande, couplée à la généralisation de la consommation de drogues dures et douces en Occident depuis la révolution libertaire de 1968 et l’intériorisation, par les jeunes, des codes des stars du pop, a offert d’immenses marchés aux autres mafias qui se sont multipliées au point que les clans italiens ont été concurrencés par ceux venus des Balkans (mafias serbes et surtout albano-kosovares), du monde turcophone (clans turcs et kurdes), du Caucase (Tchétchènes, Géorgiens et Arméniens), d’Asie (triades chinoises), d’Afrique (mafias nigérianes) et, bien sûr, d’Amérique latine (narcocartels colombiens et surtout mexicains). Mafias albanaises Les mafias albanaise et kosovare sont en progression constante depuis trois décennies en Europe et dans le monde. Favorisées par la mondialisation et la chute du communisme soviétique et yougoslave, elles se sont développées dans les années 1980-1990 avec l’ouverture des frontières et l’éclatement de l’ex-Yougoslavie, fruits des interventions militaires américaines (1992-1999). Quelques années plus tard, en 2007, l’indépendance officielle du Kosovo – déjà séparé de facto de la Serbie depuis lors – a permis le renforcement du crime organisé transnational albanophone dans tout le monde occidental à partir de ses bases ethnogéographiques balkaniques (Kosovo, Macédoine, Albanie, sud-est du Monténégro ou « Croissant balkanique »). Ces clans mafieux prospèrent parmi les diasporas albanophones d’Europe essentiellement implantées en Grèce, en Italie, en Suisse, en France, en Allemagne, en Belgique, ou en Autriche, ainsi qu’en Amérique du Nord. Ils sont « spécialisés » dans le trafic d’êtres humains, de drogue et d’organes (héroïne et cannabis), la prostitution industrielle, les cambriolages et les braquages 19 . Ces activités généreraient un « chiffre d’affaires » annuel de plusieurs milliards de dollars 20 . Composées de familles ou clans qui fonctionnent par les liens du sang et leur code d’honneur, le Kanun (vendettas intergénérationnelles, loi du silence), ces organisations sont très imperméables (peu de repentis) et aussi caractérisées par une extrême violence, bien plus encore que les mafias géographiquement proches et rivales de Serbie ou du sud de l’Italie qu’elles ont concurrencées, voire parfois éradiquées dans certaines zones (Suisse, notamment). Ladite mafia albanaise – en réalité composée de clans autonomes albanais, kosovars, macédoniens et monténégrins – s’est principalement étendue après la quasi-guerre civile survenue en Albanie en 1997, à la suite d’une grave crise financière, puis consécutivement à la guerre du Kosovo (1998-1999), de nombreux Albanais d’Albanie et d’ailleurs ayant obtenu un statut de réfugié politique en prétendant être des Kosovars victimes des Serbes (ils l’étaient vraiment parfois). Les flux de migrants albanais qui ont étoffé les diasporas ont constitué des terreaux de recrutement et des bases de rackets et de trafics 21 pour les clans mafieux qui ont profité de l’ouverture des frontières intereuropéennes. La manne des éventuels fonds structurels européens fait également rêver. Cette expansion de la criminalité organisée albanophone en Occident a été sans contexte accentuée par le rapprochement des Balkans avec le reste de l’Europe (échanges commerciaux, candidature à l’euro et à l’UE, accords dans le cadre du voisinage de l’UE, adhésions de l’Albanie à l’Otan...), puis par le fait que des clans mafieux ont trouvé un appui au plus haut sommet de l’État kosovar, lui-même dirigé par les anciens cadres de l’organisation albanaise UÇK (Ushtria Çlirimtare e Kosovës, Armée de libération du Kosovo), groupe paramilitaire terroriste lié aux réseaux criminels albanais. D’évidence, ces organisations voient la perspective de l’entrée – à terme – de l’Albanie dans l’Union européenne comme une véritable aubaine car cela permettrait de libéraliser les flux de biens, de personnes et de capitaux, et de rendre encore plus aisés les acheminements de stupéfiants et les trafics d’êtres humains. Du point de vue des services de sécurité européens, le Kosovo – créé entre 1999 et 2007 avec l’appui américano-atlantiste –, État jamais reconnu par la Russie, la Serbie, l’Espagne et d’autres pays membres de l’ONU, peut être considéré depuis sa création comme un État mafieux, à l’instar de certains États fédérés mexicains aux mains des cartels. Rappelons seulement que l’ancien président du Kosovo, Hashim Thaçi, ainsi que d’autres fondateurs de cet État sont directement issus du « Groupe de Drenica 22 », l’ex-UCK, organisation terroriste séparatiste elle-même liée à la mafia albanaise. Ce fait a été établi par la Cour pénale internationale de La Haye pour les crimes en ex-Yougoslavie 23 (CPIY). D’après un document du rapporteur du Conseil de l’Europe, Dick Marty, l’UÇK aurait en effet été impliquée dans maintes activités criminelles (trafics de drogue, de cigarettes et d’organes) comme dans l’accaparement des grands secteurs de l’économie kosovare 24 . Le trafic de drogue (héroïne et cannabis) est la principale activité des clans albanais. Pour l’héroïne, la source d’approvisionnement majeure est aujourd’hui l’Afghanistan (via la Turquie et les Balkans), les destinations et marchés de prédilection étant les pays d’Europe de l’Ouest. Les Balkans jouent en fait le rôle de plaque tournante obligée des drogues acheminées depuis l’Asie centrale vers l’Occident, via l’Italie et la Suisse, principaux pays d’accueil et de passage des diasporas albanophones. En plus d’être leaders pour la distribution, l’Albanie et le Kosovo sont également aujourd’hui d’importants producteurs de cannabis à destination de l’UE, concurrençant ainsi le narco-État marocain. En témoigne l’augmentation en Italie des saisies de cannabis en provenance d’Albanie, passées de 42 tonnes en 2016 à plus de 90 tonnes en 2017 25 , ce qui reflète l’intensification du trafic sur l’ensemble de la mer Adriatique. D’après le rapport d’Europol 2019 sur le trafic de drogue, les mafieux albanais sont également devenus des acteurs clés du trafic et de la distribution de cocaïne, jadis quasi monopolisés par les cartels latino- américains en collaboration avec les mafias italiennes pour l’acheminement vers l’Europe. En avril 2019, une importante opération d’Europol 26 menée en coopération avec la France, la Belgique, l’Italie et les Pays-Bas, a ainsi permis l’arrestation, pour trafic de drogue, d’êtres humains et blanchiment d’argent, de plus de 60 membres de clans albanophones. Autre indice révélateur de leur expansion vers l’Europe, notamment la France, le nombre d’Albanais et de Kosovars dans les prisons françaises a bondi de 340 % entre 2011 et 2017 27 . Le dernier événement médiatisé en date concerne une guerre de clans kosovars débutée en 2013, qui s’est notamment soldée par l’assassinat d’un homme à Frasses (Suisse) et par la mort de 23 autres et des dizaines de blessés au Kosovo 28 . Les cartels d’Amérique centrale Les narcos ont été les grands bénéficiaires de l’ouverture des frontières – chère aux démocrates américains et aux ONG immigrationnistes – et des traités de libre-échange des années 1990 (Nafta) inhérents à la mondialisation anglo-saxonne. Cinq principaux cartels 29 mexicains contrôlent de vastes zones où ils sont souvent capables de commander aux gouverneurs des États fédérés. Le cartel de Sinaloa, par exemple, contrôle toute la partie nord-ouest du Mexique. Il s’est taillé une solide réputation grâce à son célèbre leader El Chapo et à sa violence extrême qui n’a souvent rien à envier à Daesh, avec plus de 200 000 morts sur une période comparable de onze ans et la terreur permanente provoquée par les démembrements et les décapitations... Avant d’être arrêté en février 2014 aux États- Unis, ce parrain était devenu le principal acteur du trafic international de cocaïne, profitant d’un pacte avec le Gouvernement qui consistait en l’injection de narcodollars dans l’économie mexicaine légale en échange de protection. Le trafic de stupéfiants illicites aux États-Unis, en Europe et en Asie lui rapportait un chiffre d’affaires annuel de 3,5 milliards de dollars 30 . On sait qu’à partir de 1995, il y a eu un changement dans les relations entre pouvoir légal et cartels lorsque la politique économique a mis les institutions publiques au service des marchés internationaux, ce qui a abouti simultanément à la décentralisation du pouvoir légal et à la régionalisation des cartels. On a alors assisté à un renversement du pouvoir au profit des groupes criminels qui ont su profiter du système capitaliste-libéral en se faisant reconnaître comme des entrepreneurs privés, autrement dit des multinationales du crime contribuant au développement économico-social du pays... Il en a été de même pour tous les grands cartels du pays, qui se sont constitués et renforcés par des alliances avec les autorités politiques. « Les narcos font des affaires et partagent leurs profits avec les politiques ; les politiques disposent du monopole de la légitimité et redistribuent une partie des profits des narcos pour l’entretien de leurs clientèles sociales sous forme d’aides personnalisées informelles ou de services publics 31 . » Ils sont devenus si puissants et indispensables que tout le monde en profite : les trafiquants, leurs « alliés » politiques, les banquiers blanchisseurs, les entrepreneurs et commerçants, leurs employés directs, ainsi que les paysans qui cultivent les plantes et leurs familles. Le profit injecté dans l’économie légale permet même d’assurer la croissance du PIB et de réduire en partie la pauvreté dans un pays dont le taux de précarité est déjà très élevé. Le cartel Nouvelle Génération de Jalisco, qui contrôle principalement la région de Tierra Caliente, au Mexique, est par exemple un expert de la distribution de drogues synthétiques sur le continent et entretient des liens étroits avec les marchés asiatiques de la drogue. « 60 à 80 % de la cocaïne consommée aux États-Unis y entre par la frontière mexicaine ; 50 à 70 % de la consommation de marijuana des États-Unis et 20 à 30 % de l’héroïne 32 . » Au niveau des différents cartels et gangs répertoriés, 19 sont considérés comme d’envergure nationale avec des ramifications aux États-Unis, et 5 d’ampleur internationale (cartels du Golfe, de Juárez, de Sinaloa, de Tijuana et de Valencia). Le narcotrafic serait l’employeur direct de près de 400 000 personnes au seul Mexique 33 . Même avec nombre de leurs membres et dirigeants derrière les barreaux, les organisations sont toujours actives et gèrent les trafics depuis leur prison. « La famille la plus puissante, la famille Félix Arellano, aurait contrôlé près de 70 % de la cocaïne transitant à travers le monde », écrit Éric Vernier. Dans la même zone, on peut retrouver les maras, présents au Salvador et Honduras principalement. Dans certains territoires, les narcocartels ont acquis un tel pouvoir politique qu’ils y redistribuent eux-mêmes les richesses et y choisissent les candidats aux élections 34 . Ils parviennent à recycler leurs profits dans des activités légales où ils contraignent propriétaires et entrepreneurs à leur céder des titres. Ils développent ainsi en quasi-impunité leurs activités d’enlèvement contre rançon, de trafic de stupéfiants, d’armes et de migrants, ces derniers étant transformés en passeurs de drogue. Les cartels assurent souvent eux- mêmes l’ordre public en prenant la place de l’État, contrôlant les polices locales et installant des barrages de contrôle routier... Récemment, on a pu se rendre compte de l’incroyable puissance des cartels mexicains lors de la tentative d’arrestation du fils d’« El Chapo », qui a débouché sur un affrontement à l’arme de guerre entre le cartel et les forces mexicaines, soldé par huit morts, une quinzaine de blessés et la libération du prisonnier par le Gouvernement 35 . On peut aussi citer l’attaque contre le chef de la police de Mexico, Omar García Harfuch, miraculeusement réchappé après qu’une douzaine d’hommes armés de grenades et de fusils d’assaut ont pris pour cible sa camionnette blindée 36 . Les cartels ont depuis quelques années commencé à créer des enclaves autonomes dans une explosion de violence qui s’apparente à une guerre contre l’État mexicain. Le cartel de Sinaloa, par exemple, aurait exécuté à lui seul plus de 30 000 personnes en vingt ans... La carte de la violence au Mexique montre non seulement des niveaux élevés de perception de l’insécurité – qui, au cours de l’année 2020, a atteint 64,5 % de la population et dans les zones urbaines 73,7 % –, mais aussi une augmentation réelle de 16 % du taux de victimes de la criminalité. Entre 2007 et 2018, le nombre d’homicides a plus que doublé, passant d’un taux de 9,3 homicides pour 100 000 habitants à 21,1 en 2018. À elle seule, l’Amérique latine concentre environ 36 % de l’ensemble des homicides dans le monde. Dans nombre d’États fédérés mexicains, les cartels se substituent à l’État, fournissant des aides à la population en échange de leur soutien. En pleine crise de la Covid-19, on a pu ainsi voir apparaître publiquement en star et patriarche Nemesio Oseguera Cervantes, El Mencho, le chef du cartel de Jalisco. Ce parrain a fait construire son propre hôpital privé pour ne pas avoir à se rendre dans une institution publique, la population locale pouvant elle aussi avoir accès à ces services, ce qui rappelle Pablo Escobar se faisant construire sa propre prison. Les cartels sont les grands gagnants de la pandémie, car la crise du coronavirus leur a donné une nouvelle emprise sur les populations, en leur conférant de facto le statut d’organisation de charité, de pourvoyeur de nourriture, de médicaments ou de matériel de protection dont les Mexicains manquaient. Aujourd’hui au Mexique, la confiance de la population en l’État est rompue, la violence extrême s’est démocratisée et la peur s’est installée. Toutes les solutions mises en place pour endiguer le crime ont échoué. Dans ce pays désormais failli ou plutôt gangrené, soit on négocie avec les narcos et on accroît la corruption, soit on les réprime et on accentue la violence. Le lien entre force de l’ordre et narcos est d’ailleurs désormais ancré dans la structure même du système politique du Mexique. Mafias russophones Profitant de la troisième vague de mondialisation qui a été permise dans les années 1980 par la fin de l’ex- URSS, le crime organisé en provenance de l’espace ex-soviétique, très différent des mafias précitées, et bien plus lié aux affaires et grandes sociétés, s’est propagé grâce à la libre circulation des biens, des personnes et des services bien au-delà des frontières de l’ex-URSS : Europe de l’Ouest, États-Unis, Méditerranée orientale, et même jusqu’en Australie. De puissants réseaux et groupes russophones – souvent non russes ethniquement – y ont blanchi leurs capitaux, illégalement acquis dans le cadre du pillage de la Russie postsoviétique dans un contexte de libération anarchique (époque de Boris Eltsine). Les domaines sont surtout l’hôtellerie de luxe, la restauration et les investissements immobiliers. Selon Interpol, 40 % du PIB russe serait contrôlé par des groupes criminels indigènes. Mikhail Orskii, écrivain et ancien chef d’un groupe criminel dans les années 1990, déclarait récemment, dans une interview au journal Moskovskii Komsomolets, qu’aujourd’hui, 431 « chefs mafieux » ou « voleurs dans la loi » sont en action, dont des Géorgiens (242), des Russes (51), des Arméniens (30), des Yézidis (26), des Azerbaïdjanais (16), des Abkhazes (10), des Tchétchènes (8), et des Israélites, ce qui permet de relativiser le terme générique abusif de « mafias russes 37 ». Des réseaux du crime organisé russe et géorgien sont régulièrement démantelés par la police espagnole dans les régions de la Costa Brava et de la Costa del Sol, la Catalogne étant une zone privilégiée en raison des proximités avec le paradis fiscal d’Andorre et la France. C’est ainsi qu’en décembre 2020, suite à une enquête policière qui a duré sept ans, l’opération Testudo, les forces de police espagnoles ont arrêté 23 personnes liées aux réseaux mafieux russes, qui opèrent dans les villes d’Altea, Alicante, Finistrat, Ibiza, Madrid et Valence 38 . Dans son livre sur le crime organisé russe 39 , Mark Galeotti explique que, « dans l’ensemble, la pègre russe n’est pas définie par des structures hiérarchiques comme la mafia italienne ou le yakuza japonais, mais par un écosystème souterrain complexe et varié ». Galeotti indique qu’il existe six à douze groupes russophones de type mafieux structuré. Certains sont simplement définis par des intérêts communs (Solntsevo), ou par une culture, une religion ou une langue commune (Tchétchènes, Géorgiens, etc.). D’autres sont ancrés autour d’individus (groupe de Tariel Oniani), ont une orientation territoriale précise (Saint-Pétersbourg, Tambovskaya ou l’Association des voleurs d’Extrême-Orient), ou sont dominés par des activités criminelles spécifiques, comme les routes de contrebande. On peut citer également le carrefour criminel des « Ukrainiens », qui opèrent à travers la frontière russo-ukrainienne. La plupart des réseaux mafieux plus vastes qui couvrent une région sont essentiellement confinés dans des zones particulières, comme le gang Uralmash d’Ekaterinbourg, aujourd’hui. Les groupes mafieux des villes de plus grande taille sont dominés par des Azéris et des Géorgiens – comme le célèbre Tariel Oniani (« Taro »). Beaucoup se livrent au racket de protection, fournissant ce que l’on appelle krysha – un « toit » – aux entreprises et aux particuliers résidant sur « leur territoire ». Les pots-de-vin et les « raids » (saisie d’actifs au moyen de faux documents et de fausses réclamations juridiques) sont en pleine hausse. Certains de ces gangs sont également actifs dans le trafic de drogue, la contrefaçon ou l’esclavage moderne. À la différence des cartels mexicains ou albano- kosovars, il n’existe pas de preuve d’ingérence mafieuse dans le pouvoir politique, sauf à des niveaux inférieurs. Par contre, le Kremlin utilise souvent ces groupes criminels comme des instruments secrets dans le cadre de liens de corruption et de missions spéciales. Bien que le niveau de violence ait spectaculairement chuté depuis les années 1990, en grande partie en raison de la pression de l’État, les meurtres contre rémunération, les extorsions et les règlements de compte violents (les razborka) restent des activités essentielles des gangs. Mafia nigériane Parmi les organisations criminelles africaines, la mafia nigériane offre l’exemple le plus abouti d’une internationalisation du crime via les flux migratoires. Les organisations mafieuses nigérianes sont apparues depuis des décennies en Afrique, et plus récemment en Europe, dans le cadre d’une « division internationale du travail » criminel. Cette mafia est née au début des années 1980, après la crise pétrolière, ressource clé du pays, qui a conduit les groupes au pouvoir à rechercher le soutien de criminels pour conserver leurs privilèges, à la suite de la baisse du cours du baril. Ainsi protégée, la criminalité nigériane a pu développer ses trafics, aidée non seulement par le soutien d’une partie du monde politique du pays mais aussi par le contrôle limité que l’État exerce sur le vaste territoire national. Présentes dans de nombreux pays (Allemagne, Espagne, Portugal, Belgique, Roumanie, Royaume-Uni, Autriche, États-Unis, Croatie, Slovénie, République tchèque, Hongrie, Ukraine, Pologne, Russie, Brésil, Malte et Italie), les mafias nigérianes sont actives dans l’héroïne, la cocaïne, la mendicité et la prostitution au sein des communautés diasporiques nigérianes ou africaines du monde entier. Aux côtés de Black Axe (ou la « Hache noire »), on peut citer la Supreme Eiye Confraternity (la « Confrérie suprême Eiye »). Ces noms se sont progressivement frayé un chemin dans le lexique des polices européennes pour prendre place aux côtés de ceux d’autres organisations mafieuses. Sur leur terre d’origine, ces entités connues de longue date ont pris diverses formes avant de tremper dans la criminalité. Comme les autres groupes mafieux, la Black Axe est organisée en une structure pyramidale qui utilise l’intimidation et la violence pour s’implanter, son activité principale – et celle des mafias nigérianes en général – étant la prostitution industrielle, fortement développée par le biais des trafics des migrants reconvertis en trafics d’esclaves sexuels internationaux. Le centre névralgique nigérian de cette traite est Benin City, situé dans l’État d’Edo, au sud du Nigeria, plaque tournante de la prostitution, d’où de nombreuses filles sont envoyées à l’étranger pour se prostituer, souvent sans le savoir au départ. Ainsi, des milliers de jeunes Nigérianes – plus nombreuses encore que les Roumaines et les Albanaises – font le trottoir en Italie et partout dans les villes européennes, après avoir été achetées à des familles pauvres, à qui on fait miroiter des études en Europe. La logistique de leur acheminement, via la Libye, notamment, est organisée par des correspondants de la Black Axe dans les différents pays de transit. Une fois sur le sol italien, elles sont séquestrées et brutalisées. Leurs proches restés au pays sont menacés de mort si la filière est dénoncée par les filles dont les papiers sont confisqués. La mafia nigériane a établi des règles en Italie et en Europe : refusant l’usage d’armes à feu, elle assoit son autorité par la machette et la hache (Black Axe signifie « Hache noire »), et agit en Italie, dans la région de Naples, notamment, en sous-traitant de la Camorra. Le trafic de drogue est aussi prisé par cette mafia qui offre des tarifs encore plus bas que les organisations concurrentes. Elle développe d’ailleurs de plus en plus les drogues de synthèse qui envahissent l’Afrique 40 . Selon les statistiques du ministère italien de l’Intérieur, des dizaines de milliers de migrants africains arrivés en Italie depuis le début de la crise migratoire libyenne (2011-2015) – dont beaucoup de Nigérians – forment ainsi la première communauté de demandeurs d’asile en Italie, avec 83 870 requêtes. La justice italienne s’inquiète non seulement d’un rapprochement entre les organisations criminelles nigérianes et les pieuvres italiennes classiques, mais aussi de la collaboration d’ONG internationales humanitaires promigrants clandestins et des passeurs acheminant la main-d’œuvre des mafias nigérianes. Un sujet tabou pour maints politiques européens adeptes du mythe de l’immigration bonne par nature. Le 18 novembre 2016, 23 Nigérians soupçonnés d’appartenir à la Hache noire étaient arrêtés par la direction antimafia de Palerme. Ils étaient accusés d’avoir fait entrer illégalement de jeunes Africaines – acheminées clandestinement depuis la Libye vers l’île de Lampedusa avec l’aide active des ONG promigrants clandestins – et de les avoir forcées à se prostituer. Parmi eux se trouvait, selon la police italienne, le « ministre de la Défense » de l’organisation, Kenneth Osahon Aghaku. Là n’est pas le seul clin d’œil à l’État : cette mafia nigériane est souvent formée d’anciens militaires, lesquels reversent une sorte de loyer à la Camorra de Naples. Celle-ci lui « loue » un territoire, notamment les 20 000 logements, immeubles et villas construits illégalement dans les années 1960 par le clan mafieux local des Casalesi. À Castel Volturno, en Campanie (Naples), on peut aujourd’hui croiser des centaines de prostituées esclaves nigérianes dont les « passes » démarrent à 5 euros... Ici, on ne parle plus de prostitution, mais bien de trafic d’êtres humains et d’esclavage. Cette organisation, bien moins médiatisée que les vieilles mafias italiennes, est étonnamment très peu dénoncée, les filles exploitées ne parlant pratiquement jamais en raison de la peur extrême de subir des violences de la part de leurs proxénètes et surtout pour éviter les représailles sur leur famille restée au Nigeria. La raison du silence médiatique et politique sur cette mafia est aussi due au fait que sa dénonciation impliquerait celle de l’immigration clandestine, aujourd’hui dépénalisée... La France, les quartiers de non-droit ou la loi des caïds Assimilables à des zones non souveraines mondialisées, les nombreux quartiers de non-droit en France ne sont pas de simples zones hors contrôle qui abritent les trafics en tout genre, mais des réseaux diasporiques transfrontaliers issus de l’immigration extra-européenne parfaitement connectés à des narco-États et des multinationales de la drogue et du trafic d’armes. En France, la criminalité ne cesse d’augmenter, en grande partie grâce au trafic de drogue, hautement lucratif et belligène, alimenté par la mondialisation et les flux migratoires incontrôlés. Le marché de la drogue a littéralement explosé en France depuis les années 2000 pour atteindre entre 3 et 4 milliards d’euros en 2020, une hausse de presque 1 milliard par rapport à 2010. On recense ainsi en France pas moins de 3 952 points de deal dont 276 dans la seule Seine-Saint-Denis. Ceux-ci sont répartis dans toute la France dans ces « quartiers chauds » ou de non-droit où l’économie du narcotrafic rencontre souvent le processus de contre- société islamiste. La consommation de drogues, douces comme dures, est ainsi en pleine expansion partout en France, avec en tête le cannabis, largement fourni par les réseaux marocains, suivi de la cocaïne (mafias latino- américaines) et de l’héroïne (Afghanistan et mafias albano-turques). Dans l’Hexagone, environ 240 000 personnes vivraient directement du trafic de drogue et feraient vivre à leur tour des centaines de milliers de membres des familles sanctuarisées au sein de zones interdites de facto à la police et en rupture avec l’ordre républicain établi. En ce qui concerne le cannabis, les routes du trafic partent quasi exclusivement du Maroc, via l’Espagne. Les Marocains figurent ainsi en tête des plus gros trafiquants de stupéfiants de France. On peut notamment citer les caïds Moufide Bouchibi, Reda Abakrim, Sofiane Hambli, Bouchaïb El Kacimi, ou bien d’autres encore. L’augmentation exponentielle du trafic de drogue dans les quartiers de non-droit et de non-France, de facto « séparés », s’accompagne de violences, de règlements de compte en hausse et d’ensauvagement de plus en plus endémique. Rien qu’en 2020, la France a ainsi compté 60 morts et 250 blessés du fait des violences dues aux trafics de drogue. Après les Marocains, en tête pour le haschich-cannabis, les réseaux albanais, algériens, manouches et nigériens sont également très présents, l’immigration de masse et le narcotrafic étant intrinsèquement liés, dans un contexte de mondialisation, de liberté et d’ouverture des flux incontrôlés de personnes et de marchandises, que celles-ci fussent légales ou illégales. Cette économie du narcotrafic est par ailleurs légitimée moralement par les réseaux islamistes et indigénistes qui disculpent les caïds (voir saga Adama et Assa Traoré) à la tête de 4 000 quartiers de non-droit de l’Hexagone. Ces forces antinationales révolutionnaires entretiennent toute une contre-culture de haine envers la France et la police « raciste islamophobe », ce qui fait coïncider criminalité d’origine exogène et conflits intercommunautaires. Cette convergence entre crime organisé et confessionnalisme islamiste s’est manifestée au grand jour à Dijon, en 2020, lorsque des affrontements violents ont opposé des gangs maghrébins et tchétchènes à la suite de l’agression d’un jeune Tchétchène, ce qui déclencha l’arrivée subite de 200 Tchétchènes cagoulés et armés de couteaux et barres de fer prêts à en découdre dans le quartier des Grésilles, avec à la clé des dizaines de blessés. Le lendemain, en représailles des descentes antiarabes des Tchétchènes, ce sont des groupes maghrébins qui ont fait une démonstration de force en exhibant des kalachnikovs et fusils à pompe, des scènes totalement surréalistes pour une ville jadis réputée calme comme Dijon. L’issue a été une pax islamica négociée par un imam frère musulman. D’autres événements ultérieurs survenus en mai 2020 en région parisienne, à Avignon (assassinat d’un policier par un dealer) ou ailleurs, ont montré que ce processus durable risque de s’intensifier dans l’avenir en raison de la persistance de l’immigration incontrôlée, du manque de moyens des polices, du laxisme judiciaire, de la crise économique, de l’échec de l’intégration depuis les années 1980, et de la « culture de la drogue » véhiculée par les stars du rap et le show-biz façon McWorld. Drogue et terrorisme : la face cachée mafieuse de Daesh et al-Qaida À l’échelle mondiale, la production et le trafic de drogue, directs ou indirects, sont une source importante de revenus pour les activités terroristes qui sont parfaitement à l’aise dans la mondialisation marchande, tout comme les multinationales du crime. Dans un certain nombre de pays, les ressources issues des trafics de drogue, étant donné leurs enjeux énormes, ont contribué à compliquer et à prolonger maints conflits armés et les ont bien souvent rendus plus meurtriers. En Amérique latine au Moyen-Orient, le financement des groupes armés (Farc, M19, Sentier lumineux, OLP, Hezbollah, PKK, etc.) est dans bien des cas lié aux trafics de drogue, notamment, ou aux « taxes » prélevées sur les trafics. Bien des groupes terroristes comme Aqmi, Aqpa ou Daesh sont impliqués dans ces trafics de drogue ainsi que dans le prélèvement de « taxes » sur les acheminements de cocaïne en provenance d’Amérique latine via le golfe de Guinée. D’après les estimations d’Europol, c’est même le premier revenu des terroristes, avec 330 millions de dollars annuels, devant les hydrocarbures (230 millions). Boko Haram a ainsi été accusé d’aider les trafiquants de drogue au Nigeria et dans les pays voisins, et, entre 2014 et 2017, Daesh en Syrie et en Irak, alors à leur apogée, a carrément produit et exporté le captagon, la « drogue du djihad », dont les terroristes sont de très gros consommateurs et qui représente un marché considérable pour l’État islamique, ainsi que pour les autres groupes terroristes. En Syrie, on a pu le voir en juillet 2020, lors de la saisie de 14 tonnes estimées à 1 milliard de dollars 41 , le Liban étant un des principaux points de passage et même un producteur de cette amphétamine. Selon le journal L’Orient-Le Jour, le marché du captagon s’élèverait à plusieurs dizaines de milliards de dollars par an 42 . L’espace sahélo-saharien est également devenu ces dernières années un nouveau carrefour des trafics de toutes sortes. Outre les trafics de cigarettes de contrebande, chers à Aqmi, celui du haschich dans les années 1990, puis de la cocaïne en provenance de l’Amérique latine depuis l’année 2000, sont des mannes inépuisables. Le haschich, produit en grosse majorité au Maroc, est l’un des trafics les plus stables et « sûrs », du fait de l’expérience des Marocains dans le domaine depuis des décennies. Il s’est principalement développé, tout comme le trafic algérien de cigarettes, par le biais des diasporas immigrées en Europe. La mondialisation et l’ouverture des frontières permettent là aussi d’établir des connexions et d’ouvrir les marchés internationaux et locaux connectés. La cocaïne provenant de l’Amérique centrale transite par la Guinée-Bissau et toute l’Afrique de l’Ouest 43 , avec le Mali comme plaque tournante. Un autre trafic a émergé plus récemment : celui des opioïdes, notamment le tramadol, un antidouleur devenu très populaire qui est un véritable fléau en Afrique de l’Ouest, où les taux d’addiction sont très élevés. L’Afrique constitue d’ailleurs 67 % du marché mondial de ce produit, bien moins cher que la cocaïne et même que le crack. Trafic d’êtres humains et prostitutions : esclavage des temps modernes « L’augmentation inquiétante de la traite des personnes représente aujourd’hui le deuxième trafic mondial après celui des stupéfiants 44 », alerte Éric Vernier, spécialiste reconnu des questions de blanchiment et de criminalité. Au fil des siècles, l’esclavagisme et les trafics d’êtres humains ne se sont jamais arrêtés, y compris dans les pays occidentaux, car cette activité est extrêmement rentable. Dans cette catégorie criminelle et morbide, on inclut non seulement la prostitution, mais aussi le commerce pédophile, les trafics d’organes humains, l’esclavage, les enlèvements et la main-d’œuvre immigrée clandestine ou le travail forcé. Selon l’ONUDC, ce dernier trafic générerait plus de 32 milliards de dollars de recettes annuelles. Aujourd’hui, les conflits, l’instabilité, le sous- développement et le manque d’opportunités économiques sont autant de facteurs qui rendent les personnes ciblées toujours plus vulnérables à l’exploitation. Le trafic d’êtres humains est particulièrement répandu en Asie australe et centrale, tandis qu’en Afrique et au Moyen-Orient, le travail forcé et l’esclavage « traditionnel », ancrés dans des traditions de rivalités intertribales pérennes, sont fort répandus 45 . L’esclavage est toujours d’actualité à notre époque et il est encore largement existant, principalement en Afrique noire : « en Mauritanie, on estime à 30 % le taux de la population soumise au servage. Environ, 250 millions d’enfants travaillent illégalement dans le monde, dont un quart est âgé de moins de 10 ans et 20 000 qui décèdent chaque année d’accidents du travail », écrit Éric Vernier. À l’échelle mondiale, la traite des personnes à des fins d’exploitation sexuelle constitue la forme principale d’exploitation, la prostitution étant très prisée des organisations criminelles avec un important marché européen à la clé, dominé par les mafias des pays de l’Est, notamment albanaise et kosovare. Celles-ci sont encore plus actives sur le continent européen que les mafias italiennes, nigérianes et russes précitées : « Les grandes métropoles d’Europe occidentale (Bruxelles, Londres, Hambourg et Paris) sont la première destination du trafic de femmes originaires de l’Europe de l’Est (République tchèque, Bulgarie, Albanie), contrôlé par la mafia albanaise qui achète et viole ces femmes dans des camps de la région ou les envoie dans des “maisons d’abattage” où elles subissent 200 passes par jour, explique Éric Vernier. Les femmes de l’Est, les Africaines, sont enlevées, achetées ou abusées, violées, torturées et dépossédées de leurs papiers officiels 46 ». La prostitution existe partout, les réseaux de proxénétisme se fournissant dans l’ensemble des pays pauvres : Roumanie, Moldavie, Brésil, Thaïlande, Chine, Corée, Viêtnam, Philippines, Inde, Niger, Guinée équatoriale, etc. Les femmes et les enfants enlevés atterrissent, après différents transferts, sur les trottoirs de Paris, de Hambourg, de Chicago, etc. Les femmes et les filles représentent non seulement la majorité des victimes (72 %), mais aussi quasiment la totalité des cibles l’exploitation sexuelle (94 %). Le trafic et la vente d’enfants sont également assez développés, même en Europe : « Des enfants brésiliens, sénégalais, marocains, chinois, coréens, philippins, dominicains, haïtiens... sont régulièrement achetés ou enlevés pour fournir les pays du tourisme pédophile, notamment la Thaïlande, mais aussi les couples occidentaux en mal d’adoption. Un enfant peut être vendu jusqu’à 100 000 dollars à des familles adoptives américaines, sans aucun contrôle par la suite », poursuit Vernier. Par exemple, un réseau bulgare démantelé en France, en octobre 2006, vendait les bébés 6 000 euros après les avoir achetés 500 euros aux mères biologiques 47 . Le Guatemala est particulièrement touché avec le vol d’enfants de familles paysannes déshéritées, qui rapporte aux mafias locales 200 millions de dollars par an. Jusque dans les années 1990, en Roumanie, les familles occidentales achetaient les enfants alignés devant l’orphelinat. Aujourd’hui en Irak, les enfants sont vendus entre 5 000 et 50 000 dollars selon l’âge. Ils sont aussi victimes de travail forcé (légal ou illégal), comme les Roms que l’on voit mendier dans les rues et métros en France ou dans d’autres pays d’Europe. D’après Juan Martín Pérez, directeur du Réseau pour les droits de l’enfance au Mexique, de nombreux enfants sont régulièrement kidnappés ou embauchés dans ce pays sur fond de narcotrafic et de guerre des cartels. Les plus petits travaillent comme guetteurs ou informateurs, puis à partir de 12 ans, ils sont employés pour s’occuper de maisons, et les plus grands, à partir de 16 ans, s’occupent du trafic de drogue et commencent à être recrutés comme tueurs à gages. Ainsi, « le crime assure aux enfants et adolescents les récompenses, la reconnaissance et l’argent qu’ils ne trouvent pas dans la société légale 48 ». Une fois enlevés, ils peuvent être utilisés directement pour des activités criminelles ou comme monnaie d’échange. Au Mexique, le taux de mortalité des enfants de 0 à 17 ans a ainsi augmenté de 135 % entre 2000 et 2012, et en 2012, 1 612 enfants et adolescents ont été tués pour 1 498 en 2017, dont 1 152 garçons et 345 filles. L’incroyable business de l’immigration clandestine Évoqués régulièrement dans les débats médiatiques politiques opposant « populistes » et « immigrationnistes », les flux d’immigrés clandestins qui arrivent en masse sur la petite île italienne de Lampedusa, notamment grâce aux mafias des passeurs nigérians, libyens et aux ONG humanitaires qui les secourent en mer et les acheminent vers les côtes siciliennes, sont devenus un enjeu d’antagonisme politique et de sécurité nationale. Ces flux convergent d’ailleurs avec ceux, connexes, des réseaux de trafics de drogue, de prostitution, d’armes, et de terrorisme. Le trafic de migrants clandestins s’est fortement industrialisé depuis une dizaine d’années, avec les circuits déjà éprouvés des autres trafics d’êtres humains, car il est extrêmement rentable. On estime que le trafic de migrants a généré, rien que pour l’année 2019, des gains compris entre 5,5 et 7 milliards de dollars 49 . Rappelons tout d’abord que si, au départ, le migrant clandestin (qui fuit plus souvent la pauvreté que les guerres) est consentant pour être introduit clandestinement dans un pays en payant les passeurs, le parcours migratoire se termine souvent de manière tragique, après de nombreux abus, violences, exploitations et chantages, ou pour alimenter des mafias et le travail au noir. Les migrants clandestins doivent payer plusieurs milliers d’euros pour, dans certains cas, être abandonnés en pleine mer, d’où la poursuite du parcours avec les bateaux que les ONG affrètent. C’est ainsi que, chaque jour, en Sicile, à Lampedusa, dans les îles grecques, dans les Balkans, ou encore à Ceuta et Melilla, ou sur les côtes andalouses, débarquent des milliers de clandestins appelés « récupérés », quotidiennement secourus grâce aux efforts assidus des navires de sauvetage (souvent illégaux) exploités par des riches ONG idéologiquement fortement engagées et hostiles par principe aux frontières (Moas, Jugend Rettet, Stichting Bootvluchteling, Médecins sans frontières, Save the Children, Proactiva Open Arms, Sea-Watch, Sea-Eye, bateau Life). Derrière ces « récupérateurs » qui « prêtent » leurs bateaux (extrêmement bien équipés et coûteux), on retrouve notamment la fondation Open Society du milliardaire George Soros, chantre de la mondialisation heureuse et de l’abolition des frontières. Rappelons qu’une simple embarcation de 200 migrants, qui coûte en revanche très peu en essence, peut rapporter aux passeurs 1 million d’euros, avec très peu de risques financiers, puisque les migrants sont livrés à eux-mêmes par les passeurs qui restent postés sur la côte libyenne. Grâce aux ONG qui viennent les secourir, les passeurs ont considérablement diminué leurs coûts sans baisser leurs prix « facturés » aux clandestins qu’ils font exprès de placer dans des embarcations dangereuses... Au total, le coût total réel du voyage pour le clandestin atteint 7 000 euros. Souvent, les migrants doivent par la suite se prostituer pour payer leurs dettes, comme certaines femmes asiatiques dépourvues de titres de séjour ou ces Africaines qui paient le coût de leur passage illégal des milliers d’euros (voir supra « Mafia nigériane »). Les gains (pharaoniques, pour les trafiquants) engrangés par l’immigration illégale sont en augmentation constante. Ils se chiffrent, en France comme en Italie, en milliards d’euros. D’après une étude d’Interpol, la traite des êtres humains entre l’Afrique et l’Europe rapporterait 6 milliards d’euros annuels, soit le chiffre d’affaires trimestriel d’une multinationale comme Starbucks... Les cartels de passeurs s’enrichissent non seulement en affrétant des embarcations rudimentaires, mais aussi en fournissant de faux documents, en conduisant les migrants illégaux de l’Afrique noire vers la Libye. Outre la traversée en mer, qui coûte 2 000 à 3 500 euros en moyenne par personne, les migrants déboursent autant pour les parcours dans les déserts et « services annexes » (nourriture, gilet de sauvetage, réserves de billets pour acheter des puces téléphoniques et survivre une fois arrivés en Europe, infos sur les numéros utiles, jobs au marché noir possibles, etc.). Pour prendre la mesure de l’incroyable source de lucrativité que constituent les trafics de migrants clandestins, il suffit de rappeler l’exemple, parmi d’autres, en Libye, du « gouverneur militaire » de Tripoli, l’ex-chef du Groupe islamique combattant libyen (al-Qaida), Abdelhakim Belhaj, protégé de la Turquie d’Erdoğan, qui, devenu respectable depuis la révolution libyenne de 2011, aurait acquis grâce au trafic de migrants une fortune évaluée à 2 milliards de dollars 50 ... Les passeurs de clandestins, à la pointe du marketing digital et de la mondialisation... Comme la prostitution, qui ne s’exerce pas que dans la rue et les salons, mais de plus en plus sur Internet, les « parcours migratoires » illégaux sont vendus sur le Web. En quelques clics, ces étranges « tour- opérateurs »/trafiquants d’êtres humains donnent des prix, des conseils et proposent des « packages » en ligne et même de falsifier les passeports et cartes d’identité. D’après une étude de l’université de Trente consacrée à la capacité des trafiquants à utiliser le Web, de nombreux groupes Facebook et Instagram annoncent des voyages illégaux en arabe et donnent des modes d’emploi 51 . Des chercheurs arabophones qui se sont fait passer pour des migrants ont découvert une véritable boîte de Pandore : tout comme dans une boutique online, les trafiquants proposent des « remises » pour femmes et personnes âgées, des « forfaits famille », un « service complet » comprenant transferts navals et aériens et faux documents, et même un service après-vente... Ils offrent des informations sur les points de départ, les titres de séjour, les aides aux migrants et autres « téléphones utiles ». De nombreux profils identifiés sont faciles à trouver en cliquant sur les moteurs de recherche en arabe : « voyage pour l’Europe », « aller vers l’Italie » ou « espace Schengen ». Les applications comme Viber, Skype, WhatsApp ou Telegram sont utilisées pour échanger avec des « agents de voyages » férus de cryptographies. Ces conseils « vendus » par les trafiquants sont souvent fournis par les ONG promigrants précitées qui publient les astuces pour se rendre illégalement en Europe et y contourner les lois. L’expansion d’Internet dans les pays africains est une aubaine pour les mafias de passeurs de migrants qui connaissent parfaitement les lois des pays d’accueil et expliquent comment déjouer les contrôles. Un groupe lance par exemple ce message : « Pour tous les Syriens, une annonce du Soudan indique qu’aucun visa n’est nécessaire. Quiconque souhaite des informations peut me contacter via Viber. » La Libye n’est pas le seul lieu de passage vers l’Europe : les voyages en provenance de Turquie sont aussi en pleine expansion : « Pour les frères qui veulent voyager d’Istanbul sur des navires de 80 m, explique une autre annonce Facebook, le départ est lundi... » Si un voyage depuis la Libye peut coûter 2 000 à 4 000 euros, ces « agences » vendent 2 500 euros de plus une traversée d’Istanbul à Athènes sur des yachts touristiques que les polices ne contrôlent pas. Un itinéraire de la Turquie vers la Grèce plus précaire, avec une marche de deux heures, coûte 1 700 euros. Les voyages rapides et confortables en avion sont vendus 3 500 euros d’Athènes à l’Allemagne avec faux documents. Pour les navires commerciaux de la Turquie vers l’Italie, le prix varie entre 4 000 et 5 500 euros. Des « publicités » incitent aussi des femmes à se prostituer en ligne ou sur le Web pour financer les voyages. Pour les forces de l’ordre, ces activités cryptées, en arabe ou sur le Darknet, sont extrêmement difficiles à déceler et empêcher. Les problèmes liés aux trafics de migrants sont multiples : la vie et la situation des migrants, vrais ou faux demandeurs d’asile, leur misère, les risques de décès en mer ou d’exploitation, le danger de voir se faufiler parmi eux des délinquants, trafiquants ou terroristes, et le coût, pour les États du sud de l’Europe, de la lutte contre les migrations illégales puis du traitement des personnes que les gouvernements sont sommés d’accueillir, nourrir et loger une fois arrivés dans les ports des pays « sûrs ». D’après le projet de plan budgétaire 52 du ministère de l’Économie et des Finances italien, la dépense totale pour la gestion des migrants a été de 2,6 milliards pour 2015, 3,3 milliards pour 2016, 3,8 milliards pour 2017, et plus de 4,6 milliards en 2018 53 (voir supra). Une majorité de migrants illégaux vient d’Afrique subsaharienne et du Maghreb, il s’agit en fait plus de réfugiés économiques que des demandeurs d’asile fuyant des guerres. Certes, beaucoup de migrants fuient notamment la Syrie en guerre ou l’Afghanistan, notamment via la Turquie. Celle-ci a d’ailleurs accueilli sur son territoire 3,6 millions de Syriens. En février 2019, dans un contexte de tensions franco-turques et turco-européennes en Méditerranée orientale, le Président turc, Recep Tayyip Erdoğan, déclarait ainsi, fort de cette carte migratoire : « Ô Union européenne [...] si vous essayez de présenter notre opération comme une invasion, nous ouvrirons les portes et vous enverrons 3,6 millions de migrants 54 . » Rappelons qu’en mars 2016, la chancelière allemande Angela Merkel avait négocié au nom de l’UE un accord avec la Turquie visant à dissuader les migrants de traverser la mer Égée, par lequel Erdoğan acceptait de multiplier les patrouilles en mer et d’accueillir les demandeurs d’asile arrivés en Grèce. En échange, pour chaque migrant syrien renvoyé en Turquie au départ des îles grecques, l’Union s’engageait à réinstaller en Europe un Syrien vivant dans un camp de réfugiés turc, et Bruxelles verserait une aide de 6 milliards d’euros à destination des 2,7 millions de Syriens réfugiés en Turquie. Elle promettait par ailleurs de rouvrir les négociations sur l’adhésion de la Turquie à l’UE et de faciliter la circulation en Europe des ressortissants turcs sans visa. Or l’accord a été remis en question plusieurs fois par Ankara qui menace à nouveau de laisser passer massivement les migrants vers les côtes grecques si l’Union européenne n’accélère pas la libéralisation des visas, et si les milliards promis ou restant « dus » ne sont pas versés. De son côté, le Parlement européen s’y refuse tant que la Turquie n’assouplit pas sa loi antiterroriste, qui elle-même bloque le dossier de la libéralisation des visas vers l’Union. « Si nous ne prévoyons pas la mesure de l’arrestation immédiate de tout immigré illégal qui arrive candestinement en Italie, nous n’arrêterons jamais le phénomène », a déclaré en décembre 2018 le général Vincenzo Santo, ancien chef d’état-major de l’Otan en Afghanistan. Cette mesure choc de l’officier italien est jugée inacceptable par les lobbys promigrants, et elle est présentée comme contraire aux « traités internationaux » ou autres conventions sur les droits de la mer, ce qui est un fait discutable, car en réalité, un État a le droit de contrôler/réduire l’immigration et de sortir de n’importe quel accord international, si celui-ci est détourné pour nuire à la souveraineté inaliénable de l’État qui l’a cofondé. Et les textes onusiens obligeant soi-disant à accueillir et financer tous les migrants clandestins ne sont pas contraignants (voir « Pacte de Marrakech »). Rappelons tout de même que dans des pays démocratiques comme l’Australie ou les États-Unis, l’entrée illégale sur le territoire national est une infraction pénale passible de prison. En Australie, depuis 2013, tout bateau transportant des clandestins est systématiquement réexpédié vers des îles extraterritoriales d’Asie dans le cadre de détentions sans limite de temps pendant la vérification de l’éligibilité au statut de réfugié. Seuls les migrants entrant de façon légale dans des points d’accueil situés hors du pays sont accueillis et bénéficient éventuellement d’aides. « Jusqu’ici, conclut le général Santo, nous n’avons jamais mené d’actions coordonnées garantissant le refoulement des migrants n’ayant pas le statut de réfugié politique ou fuyant la guerre [...] avec une volonté politique, on pourrait mettre fin en quelque mois à l’immigration clandestine et aux arrivées de clandestins en Italie... » Les politiques le savent parfaitement. Mais ils ont peur de déplaire aux lobbys No Borders et à leurs relais médiatiques. Trafic d’organes D’après un rapport du Global Financial Integrity, le marché des organes figurerait parmi les dix premières activités économiques illégales qui rapportent le plus au monde, les bénéfices allant de 600 millions à 1,2 milliard de dollars annuels. Couplée aux prouesses médicales et au développement des nouvelles technologies, la mondialisation marchande a littéralement fait exploser ce marché qui a suscité les convoitises de grands groupes criminels organisés – comme les clans albanais précités – mais aussi de réseaux de corruption au sein d’États peu soucieux de défense des droits de l’homme, comme la Chine, Chypre du Nord, Cuba, etc. Ces dernières décennies, la Chine a ainsi attiré toujours plus de demandeurs fortunés qui, moyennant des dizaines ou des centaines de milliers de dollars, ont pu se payer des greffes rapides. Le gouvernement chinois a longtemps fermé les yeux sur les prélèvements forcés d’organes de prisonniers dans les hôpitaux militaires. Les « marchandises » organiques peuvent par ailleurs être commandées sur Internet, autre effet de la mondialisation. Ce marché a d’autant plus d’avenir qu’il est le fruit d’une forte demande des élites mondialisées d’Occident ou des pays du Golfe, de riches malades en attente de transplantation, se payant les services de mafias capables de faire prélever des organes directement sur des êtres vivants, comme cela se pratique hélas en Europe de l’Est, au Brésil, ou en Chine 55 . Cette marchandisation des organes d’êtres vivants est extrêmement lucrative et alimente à son tour le tourisme de transplantation. En 2008, un réseau mafieux impliqué dans ce trafic juteux et inhumain a été démantelé au Kosovo 56 : cinq médecins kosovars ayant été condamnés pour trafic d’organes à Pristina par le tribunal de l’Eulex 57 . D’une manière générale, les migrants – tant des pays de l’Est que du Sud et d’Orient – sont particulièrement victimes du trafic d’organes et d’êtres humains, comme on le voit en Roumanie, en Bulgarie, dans les Balkans, en Ukraine, mais aussi en Libye, en particulier là où sévit la milice de Sabratha. Le phénomène est également en plein essor en Asie du Sud-Est (Thaïlande, Birmanie, Népal, Indonésie). En Irak, Daesh a également été fortement impliqué dans ce trafic lucratif : ainsi que l’a déploré Mohamed Alhakim, l’ambassadeur d’Irak auprès des Nations unies, nombre de cadavres découverts dans des charniers de l’EI en Syrie et en Irak présentaient des traces de mutilations avec des organes vitaux manquants... Le diplomate a ainsi révélé l’existence d’une fatwa d’un cheikh de l’État islamique déclarant halal (« licite ») le prélèvement d’organes des « infidèles ». Trafic d’espèces sauvages et braconnage Selon Interpol, le trafic d’espèces sauvages et le braconnage, en pleine croissance, brasserait 20 milliards de dollars 58 par an, si l’on ne compte que les espèces animales. En incluant les produits forestiers, ce nombre s’élève à plus de 100 milliards... D’après un rapport d’Interpol consacré à la criminalité forestière, la contrebande illégale de bois représenterait 15 à 30 % de la production mondiale, ce qui engendrerait des revenus compris entre 51 et 152 milliards de « chiffre d’affaires » par an. Globalement, on estime que la criminalité environnementale en général représenterait entre 70 et 213 milliards de dollars par an. Celle-ci concerne l’exploitation forestière et minière illégales, le braconnage et les trafics d’animaux sauvages, la pêche et, ou encore le déversement de déchets toxiques, qui représentent une menace croissante pour l’environnement. Pour le braconnage, les exemples les plus connus sont l’ivoire de l’éléphant en Afrique ou en Asie du Sud, ou la corne de rhinocéros, qui fait l’objet d’une protection attentive. Ce trafic est très prisé par les organisations criminelles car il procure des profits élevés et un risque réduit. La lutte contre le trafic d’espèces sauvages n’a jamais été une priorité, les États privilégiant celle contre le trafic de drogue ou d’armes. La corne de rhinocéros est recherchée par des pays comme le Viêtnam pour être réduite en poudre et utilisée ensuite comme produit pharmaceutique. Il faut rappeler qu’elle se vend plus cher que la cocaïne ou l’or : entre 40 000 et 50 000 euros le kilogramme, voire parfois jusqu’à 70 000. Pour de tels revenus, les braconniers sont prêts à tout pour abattre ces animaux et pas seulement en Afrique mais aussi en France. On se souvient notamment du rhinocéros du zoo de Thoiry qui avait été abattu par balle le 7 mars 2017 avant que les ravisseurs ne récupèrent la corne à coups de tronçonneuse. Quant à l’ivoire, selon Interpol, il représenterait pour l’Asie un marché de 165 à 188 millions de dollars. En Afrique, certaines milices abattent les animaux afin de financer leurs achats d’armes et la corruption. Les bêtes peuvent également être vendues vivantes pour des zoos ou comme animaux de compagnie. Les prix de vente des grands singes varient : un braconnier peut échanger un chimpanzé contre 50 à 100 dollars, alors que l’intermédiaire peut le revendre avec une marge allant jusqu’à 400 %. Le prix de l’orang-outan peut atteindre 1 000 dollars 59 , et les tigres entre 4 000 et 6 000 dollars, voire parfois 20 000. Un autre trafic, également très lucratif, doit beaucoup à la mondialisation : celui de matières premières, comme le bois, l’or, les diamants ou le pétrole. Ce type de trafic est particulièrement développé en Afrique, dans le contexte des économies de guerres liées à des conflits intertribaux opposant des milices qui financent leurs activités par les pillages et trafics de matières premières. Au Liberia, par exemple, pendant la guerre civile, l’ancien président Charles Taylor a utilisé le bois comme principale source de financement. Selon les estimations, l’industrie forestière aurait rapporté de 80 à 100 millions de dollars par an pendant la majeure partie de cette période. Ces fonds ont contribué à élargir l’ampleur du conflit et à le prolonger, entraînant la mort de plus de 250 000 personnes et la destruction économique du pays. On peut également citer les exemples de la République démocratique du Congo, de l’Armée de résistance du Seigneur (LRA, originaire d’Ouganda), mais aussi des milices Janjawid au Soudan et des Forces démocratiques de libération du Rwanda (FDLR), directement impliquées dans le trafic d’ivoire, de bois, de charbon de bois, d’or et de minerais. En ce qui concerne le vol de pétrole, il est très prisé, notamment au Nigeria. La Nigerian National Petroleum Corporation (NNPC) a ainsi révélé en 2017 que le pays perdait 40 millions de dollars par jour en raison du vol de pétrole. Les organisations terroristes, notamment Daesh, Boko Haram, al-Qaida, Aqmi, shebabs, etc., sont également souvent impliquées dans ce type de criminalité environnementale 60 . Contrefaçon et mondialisation marchande Les filières criminelles mondialisées se professionnalisent dans tous les domaines, et celui de la contrefaçon, que la globalisation, les migrations et le tourisme ont boostée, est particulièrement prisé. Les industriels évaluent le chiffre d’affaires annuel mondial de cette activité entre 500 (OCDE) et 1 000 milliards de dollars, soit 3 % du commerce mondial. Les principaux produits contrefaits sont les équipements électroniques (121 milliards de dollars), suivis de la bijouterie (41 milliards), des dispositifs médicaux (29 milliards). Les industries pharmaceutiques chiffrent à 60 milliards les pertes rien que pour les laboratoires européens quand le secteur textile déplore une « évaporation » de 28 milliards. La situation est très préoccupante non seulement d’un point de vue économique mais aussi sécuritaire et sanitaire. Ainsi, « en 2012, dans plus de la moitié des 23 réacteurs nucléaires sud-coréens des composants contrefaits avaient été acquis à partir de certificats de conformité falsifiés 61 ». De plus, 20 % du marché pharmaceutique serait aujourd’hui composé de faux médicaments. Ils rapporteraient aux organisations criminelles jusqu’à 500 fois leur mise initiale, un trafic plus rentable que la drogue ! Selon l’IRACM (Institut de recherche anticontrefaçon de médicaments), pour 1 000 dollars investis, le gain serait de 200 000 à 450 000 dollars (contre 20 000 pour la drogue 62 ). Ce genre de trafic est d’autant plus inquiétant dans le contexte de pandémie qui sévit depuis novembre 2019 et qui conduit à une explosion de la demande de vaccins. Il est donc inévitable, vu l’enjeu financier considérable, que de faux médicaments anti-Covid, de faux vaccins et même de faux tests négatifs sont apparus, principalement dans les pays en développement. Trafics d’armes Selon le Small Arms Survey 63 , un milliard d’armes légères circulent dans le monde aujourd’hui, mais seules 16 % d’entre elles sont détenues par les forces de l’ordre et l’armée. Sachant que la valeur des transferts légaux d’armes légères est estimée à 5,7 milliards de dollars par an, celle des armes illicites serait comprise entre 57 et 456 millions de dollars. On estime par ailleurs qu’au moins 75 millions de fusils d’assaut de type kalachnikov ont été produits depuis sa création. Le trafic d’armes sert en fait un double objectif : tout d’abord, une fin purement économique, et ensuite répondre à la demande d’armes indispensables au trafic de drogue et au contrôle des territoires par des organisations criminelles. En Afrique subsaharienne et de l’Ouest également, le trafic d’armes se développe fortement, rendant ces régions particulièrement vulnérables. Entre novembre 2018 et mars 2019, on a enregistré 150 000 morts violentes dont 40 000 au moyen d’une arme à feu. Au Brésil, les guerres des gangs et assassinats par balles coûtent chaque année la vie à près de 60 000 personnes. Les armes issues du trafic illégal proviennent souvent des stocks nationaux détournés à la suite de vols ou de corruption. On trouve aussi celles fabriquées artisanalement qui n’ont donc jamais été enregistrées et autorisées, ainsi que celles provenant des guerres (notamment des Balkans) qui alimentent aujourd’hui le marché européen, et celui des banlieues françaises en particulier. L’arrivée sur le marché des armes 3D... La 5G sera un casse-tête sécuritaire Autre face noire de la mondialisation et des NTIC, les armes 3D sont maintenant parfaitement accessibles et utilisables par les acteurs criminels et terroristes. Tout a commencé en 2012, lorsque Cody Wilson, patron de la firme Defense Distributed, qui proposait des armes grâce à la plate-forme en ligne Defcad, révéla son projet de conception d’armes à feu afin que « chacun puisse avoir une arme à la maison »... Wilson qualifiait son action de « Netflix des armes 64 » et la concevait comme une sorte de lutte contre la censure gouvernementale. Le premier fichier pour obtenir les modèles d’armes a été disponible en 2013 et le succès a été immédiat : le fichier a été téléchargé plus de 100 000 fois en seulement deux jours avant que le gouvernement américain ne le fasse supprimer. Les armes à feu imprimées en 3D – ou « pistolet fantôme » – ne possèdent pas de numéro de série commercial ni de marque, et elles sont donc totalement anonymes, ce qui est un véritable casse-tête pour les polices. Le pistolet 3D le plus connu est le Liberator. L’imprimante 3D peut également permettre de fabriquer des armes en métal (même si elles doivent être assemblées à la main avec un coût bien plus élevé). Aujourd’hui, le risque réside surtout dans l’apparition de réseaux de partage de modèles d’armes basés sur la blockchain pour échanger en toute discrétion. Ainsi, plus de 100 personnes aux États-Unis seraient déjà capables de développer des technologies d’impression 3D d’armes à feu. Et des milliers participeraient dans le monde au réseau de diffusion. Ainsi, « fabriquer un fusil à pompe est 100 fois plus simple, 100 fois plus rapide et près de 100 fois moins cher que d’imprimer un pistolet. Pour 8 dollars, on peut faire un tour à Home Dépot et fabriquer un fusil à pompe 65 ». En France, récemment, des journalistes ont testé s’il était possible de se procurer ce genre d’armes, et ils ont bien réussi à télécharger le modèle gratuitement sur Internet, à imprimer les composants de l’arme chez un fabricant, à la monter, puis à tirer avec, et tout cela pour 200 euros seulement. La situation actuelle ne permet certes pas si facilement de produire des armes de qualité chez soi, car il faut déjà trouver une imprimante 3D, et ces arseneaux peuvent exploser dans les mains du tireur apprenti armurier. Mais grâce aux progrès de la technologie, à la qualité des matériaux pouvant être utilisés, mais aussi à la vitesse de production et à la simplicité de la conception, ces armes vont constituer un danger croissant dès que la technologie permettra à des organisations terroristes ou criminelles de les fabriquer à grande échelle. Cybercriminalité et Darknet D’après Éric Denécé, directeur et fondateur du Centre français de recherche sur le renseignement, ancien analyste au secrétariat général de la Défense nationale, « parmi les six menaces majeures auxquelles les pays occidentaux sont confrontés » arrivent, juste derrière le terrorisme et la subversion islamiste, « les cybermenaces (cybercriminalité, cyberespionnage, hacktivisme) et l’espionnage politique et technologique, en plein développement, et qui proviennent à la fois d’acteurs étatiques et non étatiques 66 ». Dans un monde toujours plus connecté et dépendant des réseaux informatiques, en effet, de plus en plus d’États sont confrontés à la cybercriminalité, qui coûte aux consommateurs des milliards de dollars par an. Un rapport 67 de l’entreprise McAfee (éditeur de logiciels et d’antivirus) a estimé le coût de la cybercriminalité en 2020 à 1 000 milliards de dollars (soit 50 % de plus qu’en 2018 68 ), dont 145 milliards dépensés pour la lutte contre les attaques. « Devenue la première fraude auprès des entreprises, la cybercriminalité ne cesse de repousser les limites de l’innovation technologique. Fruit de criminels ou d’États, les cyberattaques ont littéralement explosé en France. La valeur économique pillée en 2016 est estimée à plus de 600 milliards de dollars dans le monde 69 », écrit Éric Vernier. La cybercriminalité menace les réseaux informatiques sensibles des entreprises et des gouvernements, les systèmes financiers, les banques, les marchés boursiers. Par sa maîtrise croissante, les organisations terroristes et criminelles rendent de plus en plus vulnérable le système financier international, visant les services de valeur et de cartes, et, plus récemment, la monnaie électronique et de crédit dont dépend l’économie mondiale. Selon les services secrets américains, les crimes financiers facilités par des forums criminels en ligne anonymes entraîneraient des milliards de dollars de pertes pour l’infrastructure financière. Les ordinateurs et Internet jouent aujourd’hui un rôle dans la plupart des crimes transnationaux, soit en tant que cibles, soit en tant qu’armes utilisées dans le crime. Les enquêtes pour démanteler les réseaux de cybercriminalité et hackers nécessitent souvent un personnel hautement qualifié car les problèmes sont d’une extrême complexité. Éric Vernier rappelle ainsi qu’« une attaque massive, le 21 octobre 2016, a mis hors service les plus gros sites au monde : Twitter, Netflix, Airbnb, Spotify, Sony, Amazon... En 2015, des hackers russes ont détourné un milliard de dollars en passant par une centaine de banques par petits virements continus pendant plusieurs mois ». Ainsi, des réseaux sociaux apparemment anodins, comme WhatsApp et Snapchat, permettent la vente de drogues – douces ou dures. Éphémères ou chiffrées, ces applications facilitent le trafic et compliquent le travail des enquêteurs pour démanteler ces réseaux. Le Darknet, dit « réseau noir » ou « superposé », est une collection de pages non indexées, c’est-à-dire introuvables par les moteurs de recherche classiques, et donc inaccessibles avec un navigateur web normal. On y accède via des logiciels particuliers, comme Tor. Utilisé par des journalistes ou des opposants politiques, le Darknet n’est pas interdit en soi. C’est le détournement de son usage à des fins criminelles qui est répréhensible. Sur le Darknet, on peut trouver en vente des comptes PayPal, des cartes de crédit, des comptes en banques, toute sorte d’armes en pièces détachées, de la drogue, des réseaux de trafics d’esclaves, de prostitution infantile, de pédopornographie, ou même des réseaux de trafics d’organes ou de plasmas de bébés... Par exemple, mi-2017, les services de détection et de répression ont démantelé AlphaBay, l’un des plus gros marchés mondiaux de la drogue opérant sur le Darknet. Ils ont également infiltré un autre marché important, la plate-forme Hansa, et l’ont laissé poursuivre ses activités afin de recueillir des données avant de procéder à sa fermeture. Plus récemment, en avril 2019, de vastes opérations d’infiltration ont permis de démanteler Wall Street Market, alors le deuxième plus grand marché du Darknet au monde après Dream Market. Quant aux hackers ou pirates privés ou liés à des services de renseignements étrangers, notamment chinois, vénézuéliens, nord-coréens, iraniens et russes, ils utilisent les réseaux sociaux pour le scamming (arnaques, fraudes en tout genre), le phishing (le vol de données personnelles allant jusqu’à l’usurpation d’identité), et surtout le spear phishing (visant une personne en particulier, sur les réseaux sociaux). Cette criminalité peut naître dans n’importe quel pays, avec la moindre connexion et très peu de matériel. Les réseaux organisés les plus virulents sont situés en Afrique de l’Ouest (Nigéria), en Roumanie (dans la région de Constanța), en Russie et en Chine. Le réseau le plus utilisé est sans surprise Facebook : le contact y est facile, beaucoup d’informations sont disponibles, et il est aisé d’y créer un faux profil suffisamment fourni pour se fondre dans la foule et se faire passer pour une vraie personne. Les criminels profitent de la crise sanitaire ! Avec la crise de la pandémie, les risques liés à aux actions et à l’influence du crime organisé ainsi qu’au blanchiment d’argent ont fortement augmenté, comme l’exprime Éric Vernier : « Au cœur d’une crise, le phénomène s’amplifie car les urgences inhérentes à la situation entraînent précipitation des acteurs économiques et laxisme des autorités de contrôle 70 . » Les organisations criminelles essaient de profiter des diverses crises afin de s’insérer toujours plus dans le système. Tracfin rappelle ce risque : « En raison du contexte économique dégradé par la crise sanitaire liée à la pandémie de Covid-19, des sociétés présentant des difficultés de trésorerie pourraient être amenées à ouvrir plus facilement leur capital à des investisseurs étrangers afin de garantir la pérennité de leur activité. » Les banques voient dans l’argent de ces organisations des mannes énormes, et donc un moyen de tenir bon. De nombreuses banques ont d’ailleurs probablement déjà été sauvées d’une crise grâce à l’argent de la drogue (2007-2008, notamment). Les criminels peuvent également se positionner comme des banques qui accordent des « crédits » à des entreprises ou à des particuliers. Les sociétés au bord de la faillite sont de ce fait plus enclines à accepter ce genre d’arrangement. À l’instar des organisations terroristes qui utilisent la pauvreté pour rallier les plus indigents à leur cause, les organisations criminelles distribuent régulièrement – et a fortiori en période de crise – des produits de première nécessité, comme cela a été observé au Mexique auprès des narcos ou en Italie avec la Camorra. Elles prêtent parfois même gratuitement de l’argent pour attirer les plus démunis et sembler être plus proches des populations que l’État. Dans une chronique du journal italien La Repubblica, Roberto Saviano alerte sur l’activité mafieuse au cœur de cette épidémie : « La pandémie est le moment idéal pour les mafias : si vous avez faim, vous cherchez du pain, peu importe de quel four il provient et qui le distribue ; si vous avez besoin d’un médicament, vous payez, vous ne vous demandez pas qui vous le vend 71 . » Ainsi, lors de l’opération d’Interpol baptisée « Pangée », menée du 3 au 10 mars 2020 dans plus de 90 pays, 121 personnes ont été arrêtées avec une saisie de 14 millions de masques, produits pharmaceutiques et gels hydroalcooliques contrefaits. « Les collectivités elles-mêmes ont parfois été victimes d’escroqueries avec l’achat de masques de contrefaçon. » « Si le trafic de drogue a plutôt eu tendance à baisser avec la pandémie, d’autres activités se sont intensifiées et de nouvelles sont apparues » : vente de faux médicaments, de masques et de solutions hydroalcooliques conformes ou non ; cybercriminalité ; blanchiment via les mesures de relance économique en faveur des entreprises ; détournement et pénurie par rétention de produits sanitaires et revente au plus offrant ; contrebande de produits sous quotas ; investissements dans les usines de fabrication. 1. Jean de Maillard et Pierre-Xavier Grézaud, Un monde sans loi, Paris, Stock, 2001. 2. Éric Vernier, Technique de blanchiment et moyens de lutte, Paris, Dunod, 2017. 3. Christine Lagarde, « S’attaquer à la corruption avec clarté », FMI, 18 septembre 2017. 4. « Comment l’Insee va intégrer le trafic de drogue dans le calcul du PIB », Le Monde, 2 février 2018. 5. Hayat Gazzane, « Trois chiffres édifiants démontrent que la corruption gangrène le monde », Le Figaro, 9 décembre 2017. 6. Jean-Victor Semeraro, « Prestations sociales : au moins 2,5 millions de bénéficiaires fantômes », Capital, 8 septembre 2020. 7. Voir Rhoda Weeks-Brown, « Halte au blanchiment », Finance & Développement, FMI, décembre 2018. 8. Office des Nations unies contre les drogues et le crime (UNODC) : organe du Secrétariat des Nations unies spécialisé dans la lutte contre le crime et le trafic de drogue. 9. UNODC, World Drug Report 2019, 2019. 10. Europol, EU Drug Markets Report 2019. Téléchargeable sur le site d’Europol : www.emcdda.europa.eu. 11. ONUDC, World Drug Report 2019, op. cit. 12. Jean Rivelois, « Géopolitique mondiale de la criminalité », Diplomatie, Les grands dossiers n o 52, septembre 2019. 13. « À Doha, les négociateurs afghans accusent les talibans de vouloir retarder les pourparlers », L’Orient-Le Jour, 5 janvier 2021. 14. Quatre cent mille personnes vivraient des cultures illicites en Colombie, et un million au Maroc. 15. « Trois tonnes de cocaïne saisies dans un sous-marin au large de l’Espagne », Le Monde, 27 novembre 2019. 16. Anac, La corruzione in Italia (2016-2019). Numeri, luoghi e contropartite del malaffare, rapport, 17 octobre 2019. 17. Alfredo De Girolamo, « Mafia e rifiuti : la DIA indica i 4 problemi chiave », Il Sole 24 Ore, 4 février 2020. 18. Voir « Corruption Perceptions Index », www.transparency.org. 19. Leur professionnalisme dans les braquages a été constaté en avril 2019, lorsque les malfaiteurs ont dérobé un avion à main armée sur le tarmac de l’aéroport de Tirana, s’emparant de plusieurs millions d’euros. 20. « Plusieurs milliards de dollars de chiffre d’affaires », Le Monde, 17 juin 2002. 21. EU Drug Markets Report 2019, op. cit, Europol. 22. Marija Ristic, « The Troubled Trial of Kosovo’s “Drenica Group” », Balkan Transitional Justice, 27 mai 2015. 23. « L’UCK, un groupe militaire et mafieux », Le Monde, 17 juin 2002. 24. Y compris le carburant pour les véhicules et la construction. Voir « Il rapporto di Dick Marty approvato dal Consiglio d’Europa », SWI swissinfo.ch, 25 janvier 2011. 25. Europol, EU Drug Markets Report 2019, op. cit. 26. Communiqué de presse d’Europol : « Plus de 60 personnes arrêtées dans une série d’actions policières contre la mafia albanaise », 5 avril 2019. 27. Anne Vidalie, « Criminalité : les Albanais, une mafia multicarte », L’Express, 2 mars 2017. 28. « Une série d’assassinats entre deux clans touche la Suisse et le Kosovo », RTS, 2 mai 2021. 29. Cartel de Sinaloa, du Golfe, de Tijuana, de Juárez et Nouvelle Génération de Jalisco. 30. Bertrand Monnet, « Les montagnes du Sinaloa, royaume des “narcos” mexicains et siège d’une multinationale du trafic », Le Monde, 3 décembre 2020. 31. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 32. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 33. Carlos Malamud, Historia de América, Alianza Editorial, 2010. 34. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 35. « Les autorités mexicaines publient la vidéo de la brève arrestation du fils d’El Chapo », Le Monde, 31 octobre 2019. 36. Frédéric Saliba, « Au Mexique, un cartel de la drogue déclare la guerre à l’État », Le Monde, 28 juin 2020. 37. Mark Galeotti, « Crimintern: How the Kremlin Uses Russia’s Criminal Networks in Europe », European Council of Foreign Relation, 18 avril 2017. 38. Alain Rodier, « Réseaux mafieux russes défaits en Espagne après sept ans d’enquête », Raids, 4 janvier 2021. 39. Mark Galeotti, The Vory. Russia’s Super Mafia, Yale University Press, 2018. 40. Voir rapport d’Europol sur la drogue et financement du crime, EU Drug Markets Report 2019, op. cit. 41. Joël Chatreau, « Énorme saisie d’amphétamines en Italie : 84 millions de cachets de captagon, la “drogue du Djihad” », Euronews, 1 er juillet 2020. 42. Patricia Khoder, « Le trafic de Captagon, un marché de plusieurs dizaines de milliards de dollars par an », L’Orient-Le Jour, 18 janvier 2016. 43. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 44. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 45. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 46. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 47. Voir Yves Bordenave, « Un réseau de trafic de nourrissons d’origine bulgare démantelé en France », Le Monde, 19 octobre 2005. 48. CNDH, Niñas, niños y adolescentes víctimas del crimen organizado en México, rapport, 2019. 49. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 50. Houda Ibrahim, « Le Libyen Abdelhakim Belhaj : jihadiste, “terroriste” et milliardaire », RFI Afrique, 10 juin 2017. 51. Étude « Surf and Sound », le rôle d’Internet dans les migrations (laboratoire eCrime du Pr Andrea Di Nicola financé par la Commission européenne). 52. Ministero dell’economia e delle finanze, Documento Programmatico di Bilancio 2017, www.mef.gov.it. 53. Alfonso Langastro, Mariasole Lisciandro, « Migranti : ecco le cifre dell’accoglienza in Italia », Il Sole 24 Ore, 10 février 2019. 54. « Erdogan menace l’Europe d’un flux de migrants en réponse aux critiques », La Presse, 10 octobre 2019. 55. Pierre Haski, « Sida : les contaminés de la misère en Chine », Libération, 13 juin 2001. 56. « Kosovo : cinq condamnations pour trafic d’organes », Euronews, 29 avril 2013. Dans la clinique Medicus, à Pristina, plaque tournante du trafic, les donateurs touchaient 15 000 euros par organe et les receveurs déboursaient jusqu’à 100 000 euros. 57. Eulex Kosovo, mission civile de l’UE, vise à promouvoir l’État de droit. Elle s’occupe de justice, de police et de douane. 58. Voir site d’Interpol : www.interpol.int/fr. 59. Interpol, The Environmental Crime Crisis ; voir site d’Interpol : www.interpol.int/fr. 60. Les ressources forestières ont permis de financer les Khmers rouges au Cambodge et ont joué un rôle dans les conflits en Birmanie, en Côte d’Ivoire et en République démocratique du Congo. 61. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 62. IRACM, Contrefaçon de médicaments et organisations criminelles, rapport 25 septembre 2020. 63. Voir site internet du Small Arms Survey, www.smallarmssurvey.org. 64. « États-Unis : Un site Internet remet en ligne des plans d’impression 3D d’armes à feu », 20 Minutes, 2 avril 2020. 65. Gauthier Virol, « Ces réseaux décentralisés qui relancent l’impression 3D d’armes à feu », L’Usine nouvelle, 30 mai 2019. 66. Alexandre Del Valle, « Nouvelles menaces, nouveaux risques, nouveaux défis, la France est-elle préparée ? », entretien avec Éric Denécé, Atlantico, 28 janvier 2020. 67. McAfee, The Hidden Costs of Cybercrime, décembre 2020. 68. Rapport McAfee-Center for Strategic and International Studies, 2020. 69. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 70. Ibid. 71. Roberto Saviano, « La mafia del coronavirus. Dalla droga alla sanità, la pandemia aiuta l’economia criminale », La Repubblica, 23 mars 2020. CHAPITRE X Géopolitique écoénergétique, guerres du gaz et guerres de l’eau... « Celui qui déplace une montagne commence par déplacer des petites pierres. » Confucius La mondialisation, à certains égards positive, puisqu’elle a permis, grâce aux échanges et aux délocalisations, à de nombreuses contrées du monde de connaître un développement industriel et économique, a dévoilé à l’occasion de la crise sanitaire, comme plus de dix ans plus tôt lors de la crise financière de 2008, sa face « malheureuse » : ce processus d’intensification des échanges marchands, humains et financiers a en fin de compte été retourné contre l’Europe et les États-Unis par les anciennes puissances pauvres d’Asie envers lesquelles l’Occident dans son ensemble est durablement et dangereusement dépendant. La désindustrialisation due à cette mondialisation dangereuse est telle que les nations d’Europe, qui ont par ailleurs réduit considérablement la part de leurs budgets nationaux consacrés à la R&D, risquent de connaître à terme le « syndrome argentin », c’est-à-dire un processus d’involution et de déclassement. Par ailleurs, la forte dépendance énergétique des pays de l’UE rend la zone plus sensible aux aléas géopolitiques. Les approvisionnements énergétiques restent en effet très liés aux relations internationales (exemple du conflit russo-ukrainien, voir carte n o 14). Au-delà de l’« anecdote », l’Europe, pour qui le gaz naturel représente le quart de sa consommation brute d’énergie, se retrouve souvent otage des relations complexes entre l’Amérique et la Russie, Washington ne voulant surtout pas que cette dernière renforce son statut de fournisseur principal de l’UE en gaz. La menace du réchauffement climatique et de ses conséquences L’ouverture du commerce mondial intensifiant les échanges et donc les activités de transport, elle incite à consommer toujours plus des produits venant des quatre coins du monde. La mondialisation marchande est de ce fait une des causes objectives du réchauffement climatique avec la démographie incontrôlée et l’industrialisation des pays en développement. L’urgence est donc de permettre les relocalisations et la consommation locale, afin de réduire les temps et les coûts de transport, donc de favoriser les circuits courts, voie privilégiée pour diminuer les émissions de gaz à effet de serre (GES) et les impacts dus aux transports transcontinentaux, notamment. On assiste depuis quelques années à une prise de conscience brutale et planétaire du problème de l’effet de serre, et plus généralement des enjeux liés au réchauffement climatique – devenu depuis changement, urgence ou encore choc climatique. En 2005, le film du sénateur démocrate américain, ex-candidat à la présidence, Al Gore, Une vérité qui dérange, a vulgarisé les travaux de Giec (Groupe d’experts intergouvernemental sur l’évolution du climat 1 ), créé en 1988 et dépendant de l’Organisation météorologique mondiale et du Programme des Nations unies pour l’environnement. Bien qu’ayant été jugé excessif et unilatéral par la justice britannique, le documentaire présente la question du réchauffement global de la Terre et les conséquences du changement climatique qui en découlent, si la quantité d’émissions de CO 2 en forte augmentation depuis le début de l’ère industrielle n’est pas significativement freinée. Le monde découvre alors le rôle de l’excès des gaz à effet de serre dans le réchauffement climatique. Le plus abondant des GES 2 est la vapeur d’eau qui remplit notre atmosphère, mais le plus connu est le dioxyde de carbone ou CO 2 . Ils représentent à eux deux 77 % des émissions d’origine humaine et jouent un rôle fondamental dans la régulation de la température moyenne sur notre planète. Sans eux, la température moyenne de la terre serait de –18 °C au lieu de +14 °C, et les propres conditions rendant possible la vie sur Terre seraient remises en question... Or depuis le XIX e siècle, avec la révolution industrielle et la mondialisation, le recours massif aux énergies fossiles – pour le transport (marchandises, tourisme), l’industrie, l’éclairage, l’habitat – a considérablement accru le volume des GES présents dans l’atmosphère, rompant cet équilibrage naturel. En 2020, ce niveau de concentration a atteint des quantités records. Ce changement, consubstantiel d’une mondialisation, est tenu pour responsable de la hausse des températures, qui ont augmenté de 0,74 °C entre 1906 et 2010, selon les experts du Giec. Ce n’est peut-être qu’un début, car les températures pourraient augmenter de 2 à 6 °C avant la fin du XXI e siècle, si aucune mesure n’est prise, menaçant ainsi d’extinction la biodiversité et la vie sur la Terre. Le sujet semble aujourd’hui médiatiquement et politiquement clair et prouvé... Le débat scientifique ne fait pourtant pas complètement consensus et trouve ses opposants. Les climatosceptiques en question Les « climatosceptiques » remettent en cause les fondements scientifiques non pas tant du réchauffement climatique, qui est une évidence en tant que tel, mais plutôt la causalité entre émissions de CO 2 , changement climatique et responsabilité humaine dans ce phénomène. Ils jugent qu’il y a un manque de preuves scientifiques établissant les liens de cause à effet, et arguent notamment du fait que la planète a toujours connu des phases de réchauffement et des accélérations, comme celles constatées ces dernières années. L’administration Bush – proche de l’industrie pétrolière –, qui gagna les élections face au démocrate Al Gore, n’hésita pas à mobiliser ainsi Fred Singer, un physicien reconnu qui parcourait les plateaux de télévision en expliquant qu’« aucune preuve ne permet d’attribuer le réchauffement climatique à des causes humaines, et même que le monde pourrait bénéficier de quelques degrés de plus ». C’est aussi le cas du scientifique incontesté de l’atmosphère, Richard Lindzen, professeur au MIT, qui ne nie pas le changement climatique mais estime que le rôle du CO 2 est minime. Certains scientifiques, y compris des membres du Giec, notamment Richard Courtney, consultant en science du climat et de l’atmosphère, affirment donc qu’aucune preuve d’un réchauffement climatique causé par l’homme n’aurait été apportée. D’autres font entendre leurs voix au travers d’organisations telles que le NIPCC (Nongovernmental International Panel on Climate Change) qui, par opposition au IPCC – Giec –, défend la thèse d’un réchauffement non anthropique. En 2015, CO 2 Coalition a soutenu le retrait des États-Unis de l’accord de Paris (voir plus loin), et, en septembre 2019, Clintel, une alliance de 500 scientifiques et professionnels en science climatique, a adressé une lettre aux Nations unies (« Déclaration européenne sur le climat ») débutant par ces mots : « Il n’y a pas d’urgence climatique. » Parmi ces derniers figurent plusieurs Prix Nobel et scientifiques célèbres tels que Freeman Dyson 3 . Les éléments de préoccupation s’accumulent Même si les travaux de recherche continuent, pour analyser plus finement la corrélation entre les activités humaines et le changement climatique, une grande majorité de scientifiques affirment tout de même être à 90 % certains de cette responsabilité et soutiennent qu’il faut largement promouvoir la lutte contre le changement climatique. Les analyses de long terme réalisées par les experts du Giec montrent qu’entre 1880 – date du début de l’ère industrielle et donc de la mondialisation moderne – et 2012, la température moyenne globale a augmenté de 1 °C (+0,85 °C). Ce lissage ne reflète pas vraiment l’aggravation du phénomène, car la période 1981-2010 a été la plus chaude depuis mille quatre cents ans. Il ne se passe d’ailleurs pas une semaine sans que des épisodes climatiques extrêmes (inondations, sécheresses, fonte des glaces, incendies, ouragans, records de températures...) ne viennent illustrer ce changement devenu urgence climatique. La seule année 2020 s’est imposée comme une « annus horribilis » tant sur le plan climatique que sanitaire (avec la Covid-19), l’une des trois années les plus chaudes jamais enregistrées avec une température moyenne mondiale, entre janvier et octobre, supérieure d’environ 1,2 °C à celles relevées sur la période de référence 1850-1900. Selon l’ONU, cet état de fait accroît le risque de voir dépassé le niveau de 1,5 °C, prévu d’ici à 2024 par l’accord de Paris. Dès fin 2019 démarraient d’ailleurs de terribles feux de brousse en Australie, poursuivis de nombreuses semaines avec un bilan catastrophique 4 et un impact majeur sur la biodiversité. De la même manière, la Sibérie a déploré plus de 11 millions d’hectares (soit plus de la superficie du Portugal) également partis en fumée depuis début 2020. Le phénomène est doublement inquiétant car la Sibérie (notamment l’Est) connaît un réchauffement deux fois supérieur à celui du reste de la planète (5 °C de plus que les moyennes saisonnières), ce qui favorise la perte rapide de la couverture de glace. Les États-Unis n’ont pas non plus échappé aux flammes, notamment en Californie. Après plus de cent jours sans une goutte de pluie se déclarait à la mi-août 2020 un « giga-incendie » (August Complex) qui allait battre le record des plus grands feux californiens et détruire plus de 1,6 million d’hectares de végétation (soit le double des records historiques équivalent à la superficie de la région Île-de-France). La saison des typhons et des supertyphons a franchi un cran en 2020 : après Bavi (Chine, Corée du Nord) et Maysak (Micronésie), le typhon Haishen (Japon, Corée du Nord), dans le Pacifique nord-ouest, et juste après le passage de Molave aux Philippines, celui de Goni a littéralement balayé l’archipel, avant l’arrivée d’Atsani. Goni a été le plus intense de l’année 2020 et a été le plus violent jamais survenu sur terre, avec des rafales de vent à plus de 300 km/h, des précipitations sur les zones côtières et sur les reliefs atteignant en vingt-quatre heures l’équivalent de deux à trois mois de pluie. Conséquence du changement climatique, selon le Giec, le nombre d’ouragans a doublé en cent ans pour atteindre 85 par an et il devrait continuer à s’accroître. Le réchauffement des océans bat des records, et il entraîne des conséquences sérieuses sur les écosystèmes marins déjà affectés par l’acidification des eaux due au CO 2 , dont une majeure partie provenant des navires de marchandises, outil principal de la mondialisation. Les records de chaleur et les sécheresses se multiplient, l’eau se raréfie, provoquant des situations de stress hydrique par endroits et des inondations ailleurs, ce qui entraîne une baisse des rendements agricoles. La biodiversité, désormais reconnue comme un des enjeux majeurs climato-environnementaux, y est menacée, risquant d’ailleurs de provoquer l’accélération des pandémies. Encore une fois, tout est lié. En effet, des liens de plus en plus évidents apparaissent entre la biodiversité et la santé. Cette approche semblerait d’ailleurs être le meilleur bouclier contre les zoonoses, ces maladies qui passent des animaux aux êtres humains, et dont ferait d’ailleurs partie la Covid-19, d’après les informations disponibles à date. La situation est d’autant plus grave que le changement climatique que l’on vit actuellement a lieu à un rythme accéléré jamais connu dans l’histoire du monde... même si apparemment, à la fin du Pliocène, il y a trois millions d’années, on a déjà eu une concentration en CO 2 dépassant pour la dernière fois les 400 ppm au niveau actuel. Toutefois, l’accumulation de CO 2 s’était réalisée sur plusieurs millions d’années. Dans le cas actuel, en revanche, les émissions de dioxyde de carbone ont augmenté de plus de 40 % dans l’atmosphère en à peine cent cinquante ans. Sans action massive pour décarboner, on pourrait atteindre une concentration équivalente à un taux de 2 000 ppm au milieu du XXIII e siècle, voire avant, ce qui entraînerait un réchauffement de la planète de 3 ou 4 °C, avec des conséquences irréversibles dont, selon les glaciologues, une augmentation du niveau des océans entre 50 cm et 1 m d’ici à la fin du XXI e siècle. L’accord de Paris, enjeux de rivalités de leadership entre nations Dans le cadre de la COP 21 a été signé, après un marathon diplomatique, l’accord de Paris. Cent quatre-vingt- seize pays engageaient (sans contraintes) leurs gouvernements à limiter le réchauffement climatique à moins de 2 °C à travers différentes mesures à mettre en œuvre dans les années à venir afin de réorienter leurs économies vers des modèles bas carbone fondés sur un abandon progressif des énergies fossiles. Ces dernières constituent tout de même encore 70 % du mix énergétique mondial. Pour ce faire, les pays doivent faire cause commune et développer des stratégies de développement à faibles émissions à long terme. Dans la pratique, cela suppose de mettre en œuvre des plans quinquennaux de plus en plus exigeants pour atteindre au plus vite le pic mondial des émissions de GES et, ensuite, parvenir enfin à la neutralité carbone à l’horizon 2050. Ces objectifs – appelés « contributions déterminées nationalement » (Nationally Determined Contributions, NDC) – expliquent les mesures destinées à réduire les niveaux d’émissions de GES et à améliorer leur résilience à une élévation des températures. Lors de la COP 22, à Marrakech, un an plus tard, on disposait d’un document ratifié par 103 États qui représentaient 73 % des GES. L’Australie, fort dépendante du charbon, et figurant parmi les pires émetteurs par habitant de gaz à effet de serre, avait ratifié l’accord quelques jours plus tôt et confirmait l’objectif de réduire ses émissions de 26 à 28 % de leur niveau de 2005 à l’horizon 2030. Rappelons que l’entrée en vigueur de cet accord était conditionnée à la ratification par au moins 55 pays qui totalisent 55 % des émissions mondiales. Ceci était alors déjà le cas, bien que de nombreux pays ne l’eussent pas encore ratifié : Turquie, Russie, Japon, Espagne en pleine crise électorale... ou ceux, comme les États-Unis qui, sous la nouvelle ère Trump, menaçaient déjà de traîner des pieds... L’accord de Paris est entré en vigueur le 4 novembre 2016. Un an plus tard, en novembre 2017 (la Syrie avait également signé et les États-Unis ne s’étaient pas encore retirés), 195 pays sur les 197 reconnus par l’ONU s’étaient engagés. En fait, les objectifs sont volontaires et la seule obligation est que, cinq ans plus tard, l’objectif doit être plus grand, mais sans aucune précision. De plus, les États en développement n’ont aucune obligation sérieuse ou dissuasive... Transition énergétique et croissance économique : l’ultrapolarisation du débat aux États-Unis L’exemple américain illustre le problème de la polarisation idéologique en matière de politique énergétique et de décisions impliquant le respect de l’environnement, encore trop souvent vu comme l’apanage de la gauche, même si les positions évoluent. Aux États-Unis, la question est d’autant plus sensible que le pays paie cher son indépendance énergétique gagnée à grand renfort de pétrole et de gaz de schiste. Ainsi, il semble difficile de trouver des positions plus tranchées en matière d’ambitions et de politiques climatiques que celles tenues par Donald Trump et Joe Biden. Obama avait signé l’accord de Paris. Trump en est sorti et Biden, qui avait promis de réintégrer l’accord 5 , l’a fait le premier jour de son investiture. Les propos de campagne de deux candidats sur la question du changement climatique ont permis de mieux cerner les motivations et analyses respectives. D’après Trump, pour qui les principaux responsables de la pollution sont la Chine, l’Inde et la Russie, il n’est pas concevable de sacrifier des industries et des emplois sur l’autel du changement climatique et de transférer de l’argent des contribuables américains à la Chine à ce titre. Un propos sans surprise de la part d’un Président qui avait pris la décision de sortir des accords de Paris jugés « horribles, coûteux, unilatéraux », tout en se targuant que son pays avait gagné la « guerre du beau charbon propre ». On observera en passant que ce sont la Chine et le Japon, et non pas les États- Unis, qui sont les plus grands vendeurs de centrales électriques au charbon modernes et efficaces. À l’inverse, Joe Biden, dans la droite ligne de la pensée démocrate, fort de l’appui de Barack Obama et d’Al Gore, particulièrement engagés en matière de lutte contre le changement climatique, reconnaissait dans le réchauffement climatique le « danger le plus essentiel pour l’humanité » et voyait comme un « impératif moral de s’y attaquer » dans les plus brefs délais. Pour Trump, on pouvait souhaiter avoir « l’eau la plus buvable, l’air le plus pur, et le moins d’émissions de carbone » tout en dénonçant « les éoliennes, très intermittentes, qui tuent les oiseaux, et le solaire trop cher et pas assez puissant pour faire tourner les belles industries américaines ». Biden, quant à lui, défendait les « emplois bien payés dans le solaire et l’éolien » (25 à 30 dollars de l’heure selon lui) et accusait Trump d’avoir éliminé toute la réglementation en matière d’environnement. Il affirmait vouloir équiper le réseau routier américain avec « 50 000 bornes électriques », pour ne pas perdre le leadership de l’industrie automobile en pleine mutation au profit de la Chine, avec nombre d’autres propositions et objectifs 6 . Enfin, Trump considérait avoir rendu le pays indépendant des importations pétrolières, évitant ainsi de nombreuses guerres dans le monde souvent liées à la géopolitique du pétrole. Toutefois, la position proclimat de Biden reste néanmoins ambiguë – comme celle de Barack Obama – sur la fracturation hydraulique qui permet la production de pétrole et de gaz de schiste. Rappelons qu’Obama, malgré sa volonté de verdir l’économie, a largement contribué à développer cette pratique. De même, Biden, qui promet des investissements massifs vers la transition énergétique, déclare en même temps devoir gérer une « transition pétrolière » qui doit s’inscrire dans la durée nécessaire pour permettre d’investir massivement dans les énergies renouvelables. Autre paradoxe, on rappellera que dans la pratique, le retrait de l’accord de Paris voulu par Donald Trump était prévu pour ne prendre effet, coïncidence des calendriers... qu’au lendemain du scrutin, c’est-à-dire le 4 novembre 2020, et l’ex-Président climatosceptique n’a jamais totalement gelé les discussions techniques qui ont continué en coulisse : une délégation américaine était notamment présente à Madrid lors de la COP 25, pour préparer, le cas échéant, un retour éventuel. Joe Biden devra ainsi flécher les aides massives décidées pour défendre l’économie américaine face à la Covid vers cette nouvelle économie dite « régénérative », en réconciliant l’économie, l’écologie et l’investissement. Par ailleurs, les positions anticlimatiques de Donald Trump ont, paradoxalement, contribué à mobiliser les acteurs américains non fédéraux qui se positionnent aux avant-postes de la lutte contre le réchauffement climatique : les tribunaux ont été interpellés par vingt-deux États et sept grandes villes qui ont décidé de porter plainte contre la politique environnementale du gouvernement Trump. Ainsi des États, des villes et donc bien sûr des citoyens, mais aussi des entreprises, pesant pour plus de la moitié de l’économie et de la population, se sont engagés à tenir les objectifs de l’accord de Paris malgré le manque de soutien politique fédéral. En ce qui concerne les entreprises, en Californie ou à New York, le poids des multinationales aidant, Tesla, totalement acquise à la cause du monde postcarbone, devenue un énorme succès boursier, avec près de 400 milliards de dollars de capitalisation (soit 2 fois plus que Toyota et plus de 10 fois celle de Ford), en est un exemple emblématique. À l’inverse, la sortie récente d’ExxonMobil, l’empereur du pétrole, de l’indice du Dow Jones (après plusieurs décennies) est le signe d’un réveil de certains investisseurs sur le risque climatique qui est aussi un risque financier pour les entreprises des secteurs carbonés et les institutions financières. Le président Biden devra inciter les régulateurs financiers pour que ce risque soit intégré dans les réglementations et donc pris en compte dans les stratégies d’investissement des institutions financières. Vers une « civilisation écologique », le nouveau leitmotiv de Xi Jinping Quant à la Chine, rivale économique des États-Unis, première exportatrice mondiale et grosse consommatrice d’énergie, qui détient désormais le triste record de pays le plus émetteur au monde avec 20 % des émissions mondiales, elle annonce construire plus de 250 GW de nouvelles centrales au charbon alors que toutes celles de l’UE s’élèvent à 150 GW. Pékin a paradoxalement apporté son soutien, dès le début, à l’accord de Paris. Il faut dire qu’après la COP 21, l’occasion était trop belle pour les Chinois de reprendre le flambeau de la lutte contre le changement climatique abandonné par Donald Trump... Scrutée par la communauté internationale, Pékin avait décidé de déployer un plan d’action à la hauteur de ses nouvelles ambitions, affichées haut et fort, de rendre la « Chine plus belle » et d’accélérer son projet d’« éco-civilisation 7 » (EC). Ce projet a été réaffirmé le 18 octobre 2020 lors du XIX e congrès du Parti communiste chinois : Xi Jinping a notamment annoncé de « promouvoir l’édification d’une civilisation écologique à l’échelle mondiale » en continuant à déployer de grands efforts (développement massif des énergies vertes, diminution des consommations, investissements...), et il a de plus affirmé, à la surprise générale, à l’occasion d’un discours prononcé à l’Assemblée générale de l’ONU, avoir commencé « à faire baisser les émissions de CO 2 avant 2030, et d’atteindre la neutralité carbone d’ici 2060 ». De ce fait, la Chine s’impose aujourd’hui comme moteur et leader de l’écologie et des énergies renouvelables. Cette évolution n’est qu’une des illustrations d’une ambition politique chinoise beaucoup plus large qui vise à se lancer à la conquête de marchés internationaux avec des gigantesques projets de développement en perspective, avec, à la clé, le risque d’un autre grand déclassement des démocraties occidentales, ainsi « doublées » sur leur propre créneau moralisateur climatique et écologique tant à la mode, mais qu’elles sont incapables d’appliquer concrètement de façon rapide et à grande échelle comme le système autoritaire chinois le permet... Pour Xi Jinping, l’idée d’éco-civilisation s’appuie sur l’innovation technologique et la croissance qui l’accompagne. À l’opposé de celle des écolos rouges-verts occidentaux, cette stratégie n’est pas conçue par Pékin, dans le cadre d’un mondialisme utopique et antifrontiériste justifiant la fin des Nations, mais au contraire comme un autre instrument de puissance nationale et une « synthèse à la chinoise », c’est-à-dire à marche forcée pour édifier la future hyperpuissance phare de la « belle Chine » et de son idéologie confucéo-maoïste capitaliste. Lors du dernier Eco Forum Global Annual Conference de Guiyang, organisé en 2018, le sujet de la « nouvelle ère de l’éco-civilisation » a ainsi lancé la campagne chinoise mondiale en faveur d’un « développement vert avec une haute priorité pour l’Écologie ». Cette conférence annuelle, qui fêtait sa 10 e édition, avait lieu à Guiyang, métropole-vitrine du modèle qui concilie écologie, innovation et croissance. Le projet chinois de « croissance verte », aux antipodes de la décroissance des écolos européens : un autre grand déclassement en cours... De fait, Pékin affiche des résultats à faire pâlir d’envie de nombreux pays en matière de développement des énergies renouvelables, même si le pays reste très dépendant du charbon. La Chine, vu sa taille gigantesque, s’illustre par de véritables records en matière d’investissements verts porteurs de croissance économique durable : elle est désormais la première puissance mondiale en matière de production d’énergie renouvelable, et ce n’est pas fini ! Elle a doublé ses capacités en matière de solaire photovoltaïque entre 2015 et 2020, et elle s’est distinguée comme le pays ayant installé deux fois plus de capacités de production que la plupart des pays réunis sur la seule année 2016. Son parc solaire étant devenu cinq fois plus important que celui des États-Unis. En ce qui concerne l’éolien, elle a déjà déclassé la totalité de la capacité de l’Europe dans ce secteur. En matière de mobilité propre, Pékin est en pointe, avec des décisions claires, dans la production de véhicules thermiques. Lors du salon de l’automobile de Pékin d’avril 2020, les experts prévisionnistes ont même émis la crainte que la Chine devienne bientôt le leader absolu des véhicules électriques, une concurrence terrible pour les constructeurs européens moins compétitifs qui risquent là aussi le déclassement industriel. Il faut dire que le pays a tout pour réussir ce virage et développer la totalité de la filière : un gigantesque marché intérieur de près de 1,4 milliard d’habitants, des métaux rares (voir infra) indispensables au fonctionnement de ces nouveaux moteurs, des capacités industrielles dont celles nécessaires à la fabrication de batteries électriques, et un vivier de mains-d’œuvre et de compétences impressionnants. Bref, les Chinois semblent avoir compris qu’ils pourraient parfaitement revendiquer l’industrie automobile du futur. Le président Xi Jinping a d’ailleurs imposé à tous les constructeurs de réaliser, dès 2019, 10 % de leurs ventes avec des voitures hybrides ou électriques tout en exigeant des quotas plus restrictifs que partout ailleurs dans le monde, pour les véhicules trop énergétivores. Ceci est une véritable leçon en matière de capacité de faire d’une pierre trois coups : un énorme marché à la clé pour les entreprises nationales, une solution concrète pour réduire la pollution et rendre le ciel des villes encombrées plus bleu, et une position de filière industrielle prédominante. Rappelons que la Chine a investi 360 milliards de dollars pour construire le premier réseau de lignes à grande vitesse dans le monde. Avec plus de 22 000 km de lignes, celui-ci permet de desservir la plupart de grandes villes chinoises autour de huit grands axes. Un chiffre supérieur à la somme de tous les réseaux du reste du monde et qui laisse rêveurs bon nombre de pays occidentaux ! Bref, le gouvernement chinois semble bien décidé à promouvoir un environnementalisme politique, avec des moyens de mise en œuvre dépassant de loin le cadre de l’action possible des gouvernements occidentaux. À n’en pas douter, la guerre économique sans merci à laquelle se livrent désormais la superpuissance américaine et la Chine se traduira par une accélération des investissements verts dans une recherche de leadership en matière de neutralité carbone. Joe Biden a quant à lui annoncé être prêt à faire ce qu’il fallait pour atteindre la neutralité carbone du secteur électrique d’ici 2035, un objectif problématique du fait que les énergies fossiles représentent 65 % de la génération de l’électricité. En clair, une très forte accélération, en matière d’investissements, notamment dans le secteur des énergies renouvelables, sous réserve de se désempêtrer d’un secteur pétrolier qui, on l’a vu, pèse encore fortement dans la logique économique américaine. En matière d’infrastructures, on sait que l’Amérique peut aller vite, et si Biden réalise son plan, comme l’affirme le spécialiste Robert Bell, elle pourrait « devenir le leader incontesté dans le domaine des énergies renouvelables, comme elle l’a fait avec le numérique il y a trente ans 8 ». Vers un nouveau paradigme écoénergétique En 2018, la production d’électricité – dite « thermique », c’est-à-dire à partir d’énergies fossiles – qui représentait 19 % de la production mondiale d’énergie provenait pour 64 % des énergies fossiles. Le reste de la production électrique au niveau mondial (estimée globalement entre 20 000 et 25 000 TWh) est assuré par l’énergie nucléaire (10 % du total), et les énergies renouvelables (un quart du total, dont celle hydroélectrique de loin la principale). Avec près de 45 % de la production mondiale, la Chine et les États-Unis représentent les deux principaux pays producteurs d’électricité au monde. La part de l’électricité dans la consommation finale d’énergie a plus que doublé en quarante-quatre ans, depuis 1973 9 . Dans le même intervalle, la consommation finale d’énergie – toutes utilisations confondues – dans le monde s’est accrue de 109 %, pour s’élever, en 2018, à 9 983 millions de tonnes équivalent pétrole (Mtep), dont 19 % sous forme d’électricité. Les conséquences de ces hausses sont bien connues aujourd’hui avec la pollution et le réchauffement climatique, autre revers de la mondialisation marchande. L’objectif de construire un monde neutre en carbone est donc très ambitieux... Aussi, une transformation économique et sociale semble aujourd’hui nécessaire dans les pays occidentaux, déjà en retard par rapport à la Chine, pour faire émerger un nouveau paradigme écoénergétique dans le cadre d’une vision de long terme susceptible à la fois de viser une croissance verte, voire « régénératrice » pour le bien-être des générations futures. Pour contenir ce réchauffement climatique, les solutions sont connues : accroître la part des énergies renouvelables, capture et stockage du CO 2 , réductions des consommations et déchets, modification des habitudes et transports, recours au nucléaire, etc. Cette nouvelle dynamique, poussée par les objectifs de développement durable (ODD) onusiens, sera l’occasion de faire également émerger de nouvelles formes de leadership à la conquête d’un monde capable de se développer sur la base de règles et contraintes novatrices privilégiant les solutions à faible intensité carbone. Elle impose également de mobiliser des financements (initialement chiffrés à 100 milliards de dollars par an) auprès des nations industrialisées en faveur des pays du Sud, plus vulnérables au changement climatique... Dans de nombreux pays, les énergies renouvelables sont désormais clairement reconnues comme compétitives face aux fossiles. Toutefois, des voix s’élèvent pour attirer l’attention sur leur face cachée. La compétitivité est observable aux bornes de la machine qui les produit, mais du fait de leur forte intermittence et de leur très faible taux de charges – elles ne produisent qu’un cinquième du temps –, la facture d’électricité dans tous les pays qui poussent cette production ne cesse de croître. Le système électrique est un vaste réseau complexe et ne l’examiner que par la réduction du coût des installations éoliennes ou solaires conduit à penser erronément que ces énergies sont bon marché. C’est exactement le contraire, raison pour laquelle si on veut les produire, il faut le faire sous la contrainte du législateur. Pour le solaire, le secteur prévoit que le photovoltaïque mondial continuera à se développer de façon exponentielle. Il a déjà dépassé 600 GW de puissance solaire totale installée à ce jour (au-delà des estimations les plus optimistes) contre 178 GW à fin 2014. Et la course aux infrastructures vertes est loin d’être terminée... En 2024, la capacité solaire mondiale pourrait atteindre 1 448 GW. L’effet d’échelle se traduit par une baisse des coûts 10 qui contribuera à améliorer encore davantage la compétitivité de la production de cette énergie. La même observation vaut également pour l’hydrogène produit de façon écologique par la technique de l’électrolyse de l’eau, l’une des grandes solutions de l’avenir, véritable alternative aux hydrocarbures classiques et non conventionnels. C’est ainsi que les Aéroports de Paris (aujourd’hui Groupe ADP) envisagent d’installer des réservoirs d’hydrogène en vue de la réception d’une nouvelle génération d’avions « verts » qui pourraient décoller vers 2030 au plus tôt. D’une manière générale, les constructeurs automobiles se préparent également au changement de motorisation, qu’il s’agisse de l’électrique ou de l’hydrogène, laquelle impliquera pendant de nombreuses années une diminution de la production et des prix de vente beaucoup plus élevés. Depuis la COP 21, les tentatives de résurgence de l’Ancien Monde paraissent peu à peu s’éloigner... De nombreux freins contribuent à rendre le passage de l’Ancien Monde vers le Nouveau Monde extrêmement délicat. Aujourd’hui, les entreprises se doivent de faire du profit tout en veillant aux enjeux environnementaux et sociétaux, et nombre de firmes historiques du secteur de l’énergie éprouvent d’énormes réticences et/ou difficultés à se transformer. En matière de transition énergétique, ce paradoxe se traduit toujours par une prédominance des énergies fossiles (pétrole, gaz, charbon) dont la part se réduit encore trop lentement. Le pétrole, à lui seul, représente 30 % du mix en 2020 (vs 37 % en 1990)... La crise de la Covid a provoqué un double choc de l’offre et de la demande qui s’est traduit par un tel effondrement des prix (30 dollars le baril) que cela remet en question les conditions de survie même du pétrole de schiste américain, rentable au-dessus de 50 dollars le baril. Selon certains, l’urgence de la transition énergétique est d’autant plus nécessaire que les coûts de « ne rien faire » deviendraient aujourd’hui supérieurs aux coûts d’agir. Plus de 200 des plus grandes entreprises cotées du monde prévoient que le changement climatique pourrait leur coûter près de 1 000 milliards de dollars au total dans les cinq prochaines années, un montant pourtant encore largement sous-estimé selon un rapport de l’organisation CDP (Carbon Disclosure Project 11 ). Les assureurs paient des notes de plus en plus salées du fait d’épisodes climatiques extrêmes (inondations à répétition, incendies, tempêtes plus fréquentes et plus violentes, ouragans, vagues de chaleur, canicules...), mais aussi parce que la démographie et la mondialisation poussent des populations urbaines à se concentrer dans des zones à risques météorologiques. Pour l’horizon 2030, les grands objectifs, arrêtés par le Conseil européen dès octobre 2014, envisagent comme priorité la réduction des émissions d’au moins 40 % en 2030 par rapport à 1990. Cet objectif est d’ores et déjà considéré comme une étape de la feuille de route de la Commission européenne qui parie sur une économie sobre en carbone à l’horizon 2050. Elle propose ainsi des scénarios pour atteindre de manière optimale l’objectif que s’est fixé l’UE de réduire de 80 à 95 % ses émissions de gaz à effet de serre d’ici à 2050, par rapport à leur niveau de 1990. La France soutient cette approche, également appelée ZEN 2050 (Zéro émission nette). La crise du coronavirus va probablement relancer et accélérer cette réflexion de fond. Pétrole et gaz de schiste et filières nucléaires, les énergies renouvelables n’ont pas encore gagné la partie... En dépit des nombreux projets ambitieux visant à bâtir une économie entièrement décarbonée, et outre les contradictions et effets pervers, en matière d’émissions de CO 2 , de l’économie ubérisée et des nouvelles technologies consommatrices de terres rares hautement polluantes et émettrices de CO 2 (voir infra), le débat sur les énergies fossiles elles-mêmes est loin d’être définitivement clos, eu égard aux succès de deux énergies non renouvelables : les hydrocarbures de schistes et les filières nucléaires, tant classiques que de nouvelle génération. Commençons par les énergies fossiles et notamment le gaz, bien moins polluant et bien plus prisé que le pétrole. Il convient de rappeler que nos économies industrialisées en sont encore très fortement dépendantes, surtout des différents gaz. Certains annoncent pour bientôt une économie mondiale débarrassée des hydrocarbures, mais il s’agit là d’un vœu pieux, car si la part de consommation mondiale de pétrole diminue et aura vocation à être remplacée en partie par les énergies renouvelables, il n’en va pas de même du gaz, qui sera l’une des énergies du XXI e siècle, aux côtés des renouvelables, du nucléaire et de l’hydrogène. Démarrée il y a une dizaine d’années seulement, donc sous l’ère du pourtant réputé écologique Barack Obama, la révolution du gaz de schiste a complètement changé la donne énergétique américaine et mondiale, faisant du pays une superpuissance pétrolière et gazière et bousculant ainsi les équilibres géopolitiques mondiaux. Depuis les années 2000, les réserves américaines commençaient à s’épuiser. L’arrivée du gaz de schiste à la fin des années 2000 a « réglé » le problème. Les compagnies pétrolières ont alors commencé à creuser plus profondément pour avoir accès aux réserves. Pour l’extraire, le procédé choisi est la fracturation hydraulique, consommatrice de produits chimiques et d’eau. Paradoxalement, l’exploitation de pétrole et de gaz de schiste, contrairement aux hydrocarbures conventionnels, est rapide à réaliser avec des puits moins coûteux que ceux nécessaires pour l’extraction du pétrole conventionnel (avec les fameuses pompes : pump jacks). Chaque gisement contient toutefois une quantité limitée d’hydrocarbures, ce qui nécessite la construction de dizaines de nouvelles installations chaque semaine 12 . Le pétrole de schiste a connu lui aussi une renaissance depuis les années 2000, en même temps que progressait la « conscience climatique »... Totalement marginale en 2007, la production de pétrole de schiste représentait en 2018 plus de la moitié de la production de pétrole aux États-Unis. Ainsi, l’Agence internationale de l’énergie (AIE), pourtant partisane de la décarbonation et des énergies renouvelables, prévoit que la production de pétrole de schiste atteindra 11 millions de barils par jour d’ici à 2035, soit 66 % de la production totale aux États-Unis. Longtemps premiers importateurs mondiaux de pétrole, les États-Unis sont devenus exportateurs nets de brut et de produits pétroliers en 2020 13 . Avec une production qui a atteint près de 12 millions de barils par jour, en 2019, les exportations de pétrole, de gaz et de charbon combinées ont été supérieures aux importations, pour la première fois depuis 1953... et les États-Unis, qui ont ainsi gagné leur indépendance énergétique, ne prévoient pas de redevenir importateurs nets de pétrole avant 2050... Cette croissance prend en compte la relance de l’exploitation de pétrole off-shore, décidée par l’administration Trump. Dans ce domaine, il est vrai que les États-Unis ont été bien moins scrupuleux que l’Union européenne eu égard aux conséquences écologiques délétères des systèmes de fracturation hydraulique propres à la production des gaz et pétroles de schiste. Officiellement très fortement mobilisées par la lutte contre le changement climatique, les industries privées du pays ont été autorisées à investir largement dans des gazoducs pour exporter vers le Mexique, le Canada, l’Europe – comme on vient de le voir – ou l’Asie. Cela ne veut pas dire que les États-Unis n’importent pas. En effet, le pays continue à s’approvisionner en pétrole canadien, saoudien, mexicain, vénézuélien et irakien, à hauteur de 6 millions de barils par jour, pour des raisons essentiellement techniques, liées à la capacité des raffineries américaines réglées pour traiter des bruts plutôt lourds (le pétrole de schiste étant un peu plus léger, ce qui explique qu’on privilégie son exportation). Bien entendu, l’échiquier politico-énergétique mondial a changé en fonction de cette nouvelle donne. Ainsi, le blocus et le régime de sanctions américains contre l’Iran ou la Russie – en réalité pas uniquement motivés par la « morale » mais aussi et surtout par la concurrence énergétique – ont ouvert de nouveaux débouchés au pétrole et au gaz américains, qui se sont ainsi substitués en partie au brut iranien exporté vers l’Europe et l’Asie et qui a vocation à concurrencer le gaz russe... Et selon la Commission européenne, les exportations de gaz naturel liquide américain vers l’Europe ont augmenté de 272 % depuis juillet 2018... Les gazoducs russo-européens, des épines dans le pied pour l’hégémon américain... Le gazoduc South Stream a fait les frais de ce que nous avons baptisé la « néo-guerre froide » États-Unis- Russie (voir carte n o 13). Ce pipeline, long de 3 600 km, destiné à exporter le gaz sibérien en contournant l’Ukraine, devait fournir jusqu’à 63 milliards de mètres cubes par an aux pays européens grâce à deux branches, l’une vers l’Autriche, l’autre vers les Balkans et l’Italie. Lancé en 2007, ce projet, appuyé notamment par l’Italie et d’autres pays d’Europe du Sud et balkanique, a été abandonné, en décembre 2014, en raison des pressions des États-Unis et des pays les plus antirusses de l’UE. Ces derniers souhaitaient voir leur allié ukrainien demeurer dans le jeu gazier et surtout ne pas dépendre directement de Moscou. Ce choix russosceptique allait favoriser en réaction un rapprochement géoénergétique entre Russes et Turcs : ces derniers sont traditionnellement impliqués dans la réduction de la dépendance européenne vis-à-vis de la Russie, mais ils ont décidé d’offrir leur voie de transit au plus offrant et ont eux-mêmes fort besoin des hydrocarbures de Russie et des Républiques turcophones ex-soviétiques prorusses membres de la Communauté des États indépendants (CEI). Cela étant, d’autres infrastructures (Nord Stream, voir carte n o 13) permettent d’acheminer du gaz de Russie, notamment vers l’Allemagne, pays figurant parmi les plus dépendants de l’UE envers la Russie pour sa demande en gaz naturel (63,5 %). Ce gazoduc, qui passe sous la Baltique et débouche dans le nord de l’Allemagne, a été mis en service en 2012. Nord Stream 2 visait à doubler la capacité de livraisons directes de gaz russes du réseau Nord Stream 1, pour parvenir à 110 milliards de mètres cubes par an. Avec des investissements estimés à 11 milliards d’euros, financés pour moitié par la compagnie russe Gazprom (et le solde par les sociétés européennes OMV, Wintershall Dea, Engie, Uniper et Shell), le projet s’est attiré les foudres du Congrès bipartisan des États-Unis, qui accusait publiquement l’Allemagne d’être « prisonnière » de la Russie et exigeait son abandon 14 ... Nord Stream 2 devait être mis en service début 2020 mais a été brutalement interrompu pendant près d’un an, sous les intenses pressions de l’administration Trump, avant de reprendre en décembre 2020, ceci malgré les sanctions « extraterritoriales » adoptées par les États-Unis en décembre 2019 contre les entreprises allemandes et russes collaborant au projet 15 . En juin 2021, alors que ses 1 230 km étaient quasiment terminés (il manquait en juin 2021 6 % du gazoduc à achever, 74 km), l’administration de Joe Biden a continué à multiplier les pressions pour retarder ou compromettre la mise en route du gazoduc, voyant dans l’Europe un parfait débouché pour son abondant gaz naturel de schiste. C’est dans ce contexte que, le 11 juin 2021, Joe Biden a invité la chancelière allemande Angela Merkel à Washington afin, notamment, de tenter de la convaincre de renoncer au gazoduc atlantistement incorrect... Joe Biden a toutefois renoncé à poursuivre les sanctions, jugées contre-productives, afin de préserver la relation germano-américaine, essentielle pour pérenniser l’hégémonie américaine et atlantiste sur le Vieux Continent. Toujours est-il que cette affaire a confirmé une fois de plus comment la puissance unilatérale étatsunienne instrumentalise des conflits comme l’Ukraine (qu’elle a d’ailleurs contribué à faire exploser 16 ), et des arguments moralistes, pour pérenniser l’aberration internationale que constituent les lois extraterritoriales américaines. Celles-ci permettent en effet au Trésor américain de geler des avoirs de n’importe quels État et compagnie au monde (avec à la clé des « amendes » se chiffrant parfois en milliards de dollars, voir affaire BNP Paribas, Total ou Société générale) accusés de faire du commerce avec des « États voyous » (Rogue States) sous sanctions, ou dont les intérêts énergétiques (Iran, Russie, etc.) dérangent ceux des compagnies étatsuniennes et les stratégies d’endiguement du Deep State américain... Au-delà du gaz russe, les Européens se fournissent également, bien sûr, en Norvège, en Algérie et au Qatar, ce qui explique aussi la permissivité de l’UE vis-à-vis des Frères musulmans en Europe, parrainés et financés justement par Doha... Tout est lié. Et grâce à la diabolisation-éviction du concurrent géoénergétique russe par les États-Unis au nom des dossiers ukrainien et syrien ou de la question des droits de l’homme – très hypocritement orientée en exonérant les pétromonarchies du Golfe bien plus dictatoriales que Moscou – l’Union européenne n’est plus le seul maître de sa destinée énergétique. On est loin de la solidarité russo-européenne et de l’axe géoénergétique Paris- Berlin-Moscou désirée par le général de Gaulle dans le cadre de son plan Fouchet pour une Europe des nations indépendantes des États-Unis et donc « recontinentalisée »... À cet effet, l’ancien secrétaire d’État américain à l’Énergie, Rick Perry, n’avait pas hésité à vanter les mérites du gaz américain – pourtant bien que plus cher que le gaz russe – présenté comme « fiable » et synonyme de « liberté » pour les Européens ! En 2019, les importations de gaz naturel liquéfié (GNL) avaient ainsi bondi de 87 %, et 15 % du total provenaient des États-Unis. Le nucléaire : énergie de tous les dangers pour certains, solution de décarbonation pour d’autres... Abordons maintenant la question du nucléaire civil. Symbole de la puissance technologique et atout majeur des pays le maîtrisant, le nucléaire est aujourd’hui au cœur des débats et enjeux énergétiques car il permet en fait de produire local. Ses partisans rappellent que la fission de l’uranium n’émet pas de gaz à effet de serre et que le cycle carbone de la filière (de l’extraction de minerai à la gestion des déchets radioactifs) est très bas, et même, selon le Giec, encore plus bas que l’énergie éolienne. De plus, si le nucléaire est décrié pour des raisons de sécurité, d’autres y voient une solution bas carbone, d’autant que les réserves prouvées d’uranium sont évaluées à plus de cent ans avec des centrales de plus en plus économes en termes de combustibles. Là encore, les situations diffèrent en fonction des pays, de leur histoire et de leur sensibilité. Ainsi, avec ses 58 réacteurs nucléaires – devenus 56 depuis l’arrêt de Fessenheim en 2020 – la France, pays le plus nucléarisé au monde en proportion, produit 70 % de son électricité dans ses 18 centrales nucléaires, créant ainsi une situation inédite en termes de manque de diversité des sources d’approvisionnement. Cette situation est souvent analysée comme un obstacle à la production électrique renouvelable. Comparé au plus grand parc nucléaire au monde, américain (95 réacteurs opérationnels dans 65 centrales nucléaires, plus 2 en construction et 38 mis à l’arrêt définitif), la France est certes loin des États-Unis, avec une production de 395,91 TWh, contre 808 TWh. Par soucis de compétitivité, le programme nucléaire civil étatsunien, un temps freiné, a en fait été relancé depuis 2010 17 . Le budget consacré par le Department of Energy (DoE) à la filière nucléaire est ainsi passé de 986 millions de dollars, en 2016, à 1,493 milliard en 2020. Les États- Unis semblent de la sorte déterminés à faire renaître la filière énergétique nucléaire, notamment afin d’éviter un déclassement définitif en faveur de la Chine et de la Russie, ceci au moment où l’Europe se dénucléarise sans réussir la transition vers les renouvelables, comme on l’a vu en Allemagne qui ne réduit ses émissions qu’à la marge. La Chine une fois de plus leader dans le domaine La Chine est toutefois le pays dans lequel l’énergie nucléaire a le plus progressé et à une vitesse record. Pour réduire sa dépendance au charbon, le gouvernement de Pékin a en effet multiplié par dix le nombre de centrales nucléaires en fonctionnement en 2000, avec un objectif de capacité de 120-150 GW pour 2030, contre 63 GW aujourd’hui en France... En 2019, la Chine disposait de 47 réacteurs en fonctionnement (contre 38 en 2018). En plein été 2020, l’Association chinoise d’énergie nucléaire annonçait, malgré la pandémie de la Covid, la construction de 6 à 8 réacteurs par an d’ici à 2025, soit le double du rythme actuel, ceci en évitant les retards et les surcoûts qui ont largement handicapé le nucléaire français. Les catastrophes nucléaires successives 18 , qui ont quelque peu refroidi les ardeurs, expliquent notamment les technologies innovantes du secteur, par hybridation du réacteur américain et de l’EPR français, dont une version chinoise a permis de faire émerger le réacteur phare Hualong-1 19 . Ce réacteur, installé dans la centrale de Fuqing, au sud-est du pays, est le premier-né du modèle à eau pressurisée, conçu et construit 100 % made in China. Ses promoteurs rêvent de conquérir les marchés extérieurs. La Chine a ainsi vendu 2 réacteurs au Pakistan (et 3 supplémentaires en cours), et elle négocie des contrats avec le Royaume-Uni, l’Argentine, l’Iran, la Turquie, l’Afrique du Sud, le Kenya, l’Égypte, le Soudan, l’Arménie et le Kazakhstan. Pékin coopère également avec la Russie – entreprise Rosatom – pour enrichir l’uranium et développer des projets de centrales équipées des réacteurs russes VVER. La Chine est ainsi devenue un acteur majeur de la filière nucléaire à l’échelle internationale sur la totalité de la chaîne de conception, de construction et d’exploitation. Elle se distingue par ses innovations et notamment par un programme basé sur des démonstrateurs appelé le « Dragon Rising 2020 ». Pékin investit en plus fortement dans l’innovation et effectue des recherches intenses sur la fusion thermonucléaire. Depuis 2003, le pays est ainsi partenaire du grand projet international Iter de réacteur thermonucléaire (qu’on appelle également un tokamak). Le réacteur, situé à Cadarache en France, devrait générer son premier plasma en 2035. Mais la Chine possède aussi ses propres réacteurs et a battu, le 28 mai 2021, un record de température de fusion dans le troisième tokamak qu’elle vient de construire : l’Experimental Advanced Superconducting Tokamak (East) a atteint 160 millions de degrés Celsius et il a surtout réussi à maintenir son plasma à une température de plus de 120 millions de degrés Celsius pendant cent une secondes. D’évidence, même dans ces domaines, l’empire du Milieu promet de ne plus se contenter d’imiter, mais de déclasser l’Europe, et, à terme, les États-Unis... L’enjeu géoéconomique majeur des terres rares, la Chine toujours n o 1 La Chine a pour objectif non dissimulé de concurrencer les pays occidentaux dans tous les domaines stratégiques, économiques et industriels, puis de remporter les plus grands marchés dans le domaine de la transition énergétique. Dans cette entreprise pour le leadership global qui passe par le déclassement de l’Occident, elle a déjà inondé le monde entier en panneaux solaires made in China, bien moins chers que ceux des pays occidentaux, et cette victoire a été en partie facilitée par le fait qu’elle contrôle 90 % des matières premières nécessaires à leur fabrication comme les terres rares. Le résultat a été de littéralement détruire l’industrie européenne solaire, la quasi- totalité des entreprises spécialisées dans la technologie photovoltaïque étant d’ores et déjà chinoises. De ce point de vue, la suprématie chinoise en matière d’exploitation des terres rares condamne les pays occidentaux à une dépendance extrêmement problématique dans l’avenir. Les terres rares désignent une catégorie de métaux rares aux fabuleuses propriétés physico-chimiques. Leur nom (en anglais Rare Earth Elements ou REE) vient de leur difficulté d’extraction : elles sont présentes en abondance, mais avec des concentrations très faibles. Elles sont à la base des technologies NTIC et informatiques, notamment pour les batteries, et au cœur même des industries liées à la transition énergétique et aux énergies renouvelables : dans le futur, nous sommes censés produire le plus possible d’électricité à l’aide des énergies renouvelables (solaire photovoltaïque, éolien), ce qui signifie qu’il sera presque impossible de s’éclairer, de se chauffer, voire de travailler sans ces précieux métaux. Les terres rares sont utilisées dans le domaine des énergies renouvelables, dans la fabrication de véhicules électriques, des batteries, des panneaux solaires, des éoliennes, etc., mais aussi dans le domaine du numérique (écrans, puces, composants des smartphones, fibre optique), notamment les réseaux digitaux. Elles sont, bien sûr, également nécessaires à la technologie 5G, dominée par la Chine, sans oublier les secteurs médical (radiologie), militaire (lasers, composants des drones, des missiles), et plus globalement à tout équipement connecté. Aujourd’hui, dans un contexte de transition énergétique et de réduction des gaz à effet de serre, la majeure partie des gouvernements se tourne vers les énergies renouvelables, or les voitures électriques nécessitent d’investir massivement dans des technologies très utilisatrices de métaux rares. Les enjeux industriels et politiques sont par ailleurs colossaux : les pays producteurs ont gros à y gagner, et la recherche, l’appropriation et l’exploitation de ces ressources peuvent conduire à des tensions géopolitiques et commerciales, la transition écologique étant aussi et avant tout une transition économique. Selon un rapport de la Banque mondiale 20 , la demande en métaux rares va croître énormément dans les prochaines années : le néodyme, par exemple, utilisé dans la fabrication d’aimants et fondamental pour l’industrie éolienne et les véhicules électriques, devrait voir sa demande augmenter de 150 à 250 %. Celle de métaux comme l’aluminium, le cobalt, le fer, le plomb, le lithium, le manganèse et le nickel pourrait être multipliée par plus de 10 d’ici 2030. Quant à la demande d’indium, utilisé massivement dans le solaire, elle pourrait exploser de 250 à 300 %. Ces ressources viennent de différentes zones : le cobalt provient principalement de la République démocratique du Congo, le lithium surtout d’Australie et d’Amérique du Sud (Bolivie, Chili, Argentine). Ces métaux rares peuvent être produits un peu partout dans le monde, mais la Chine, qui détient des réserves colossales, est le premier producteur mondial. Elle produit notamment les deux tiers du graphite et surtout 88 % des terres rares 21 ! Certes, elle ne dispose « que » de 37 % des réserves de terres rares dans le monde, soit 44 millions de tonnes, mais c’est elle qui investit, extrait et produit le plus, disposant à la fois des ressources, de la main-d’œuvre, et des contraintes environnementales faibles qui permettent leur exploitation. Après le pétrole, les métaux rares sont devenus notre nouvelle dépendance majeure, or leur production est concentrée en Chine. Un véritable problème de sécurité nationale pour les autres pays qui doivent rattraper le retard. L’industrie américaine des métaux rares s’est quant à elle écroulée, en partie en raison des polémiques environnementales. Déjà, en 1992, le Président chinois, Deng Xiaoping, déclarait : « Le Moyen-Orient a du pétrole, la Chine a des terres rares », preuve que Pékin avait compris très tôt la nature stratégique de ces métaux. Et la Chine est bien plus ambitieuse que les pétromonarchies du Golfe : elle ne se contente pas du quasi-monopole des mines, mais veut aussi détenir celui des usines. L’empire du Milieu n’est en effet pas uniquement « l’usine du monde » qui fournit des produits bas de gamme et bon marché, mais elle s’impose aujourd’hui également comme un des principaux fournisseurs de haute technologie. La stratégie chinoise d’innovation vise en fait à faire de ce pays la plus grande puissance technologique et innovante d’ici à 2050 en complétant le plan « made in Chine 2025 22 ». La Chine concurrence donc les pays occidentaux dans des domaines qu’ils contrôlaient depuis longtemps, comme l’automobile. Elle est aujourd’hui le premier producteur mondial de batteries au lithium, utilisées dans les voitures électriques. Dans un contexte de conflit commercial avec les États-Unis, cela rend ces domaines très dépendants des terres rares pour les industries. Il s’agit là d’un sujet de tensions, surtout depuis l’attaque commerciale des États-Unis sur la compagnie chinoise Huawei. En effet, dans l’hypothèse d’un blocage de l’exportation des terres rares par la Chine vers les États-Unis 23 , les difficultés d’acheminement pour ces derniers seraient très importantes. Cette tactique a d’ailleurs déjà été utilisée par la Chine contre le Japon en 2010, lorsque Pékin a interrompu l’approvisionnement en matériaux à la suite d’un différend territorial en mer de Chine. Nombre d’entreprises japonaises, notamment celles spécialisées en robotique ou automobile, comme Toyota, dont la gamme de véhicules hybrides nécessite beaucoup de terres rares, ont été ainsi en rupture d’approvisionnement. Plus récemment, Pékin a menacé de restreindre ces exportations de terres rares vers les États-Unis, qui en dépendent à 80 %. Le risque de rupture d’approvisionnement de ces matériaux vitaux pour son économie est un véritable cauchemar pour Washington. Le pays de Xi Jinping, maître du marché, peut donc aujourd’hui augmenter ou baisser à sa guise les prix. Les États-Unis tentent certes de contrer cette domination chinoise problématique, comme on l’a vu en 2019, avec la proposition de Donald Trump de racheter le Groenland au Danemark, le Groenland regorgeant de ressources (hydrocarbures, métaux rares) dont d’importants gisements de terres rares. Mais cette proposition est restée purement théorique et l’Amérique est loin d’avoir trouvé la parade à cette dangereuse dépendance vis-à-vis de la Chine. On est d’ailleurs en droit de se demander quelle sera la stratégie de Joe Biden qui ne s’est pas trop exprimé sur ce défi, sachant que les États-Unis n’ont rien entrepris de concret pour rattraper substantiellement leur retard et qu’ils n’ont étonnement pas investi les sommes nécessaires dans des plans de long terme visant à produire des terres rares ou à acheter des mines dans le monde dans le même but. Autre sujet lié aux terres rares, la production de semi-conducteurs fait débat. L’Europe fabrique aujourd’hui un peu moins de 10 % des semi-conducteurs, et elle en reste très dépendante, à tel point que sa production automobile a été ralentie en raison de la pénurie mondiale de semi-conducteurs. De plus, rappelons que la firme taiwanaise TSMC, leader mondial, produit 70 % des composants électroniques destinés à l’automobile, or Taiwan pourrait redevenir chinoise sous peu... Par conséquent, la Chine hériterait une fois de plus du monopole d’un élément stratégique. Conscients de leur grave dépendance vis-à-vis de la Chine, les États-Unis souhaitent investir 37 milliards de dollars pour soutenir GlobalFoundries, Micron Technology et Intel afin d’approvisionner les constructeurs automobiles. Intel s’est d’ailleurs dit prêt à construire une usine en Europe et également deux autres en Arizona. Mais la Chine, qui a toujours un coup d’avance sur les autres, grâce à sa capacité à élaborer des plans de long terme, a débloqué 88 milliards de dollars pour arriver à 70 % d’autosuffisance d’ici 2025. Bien que leader de la production des métaux rares, la Chine en est également un très gros consommateur en raison de ses ambitieux plans industriels et elle en est devenue, en 2018, le plus gros importateur. Elle devrait avoir des difficultés d’approvisionnement dès 2025. Dans ce contexte, pour ne pas perdre une arme industrielle, Pékin cherche ces métaux ailleurs, le long des « nouvelles routes de la soie » (BRI). Même si leur objectif n’est pas tourné vers les terres rares, ces nouvelles routes pourraient favoriser la mise en place de partenariats pour l’exploitation des ressources. Ce phénomène est déjà observé en Afrique, continent qui détient d’importantes réserves de métaux, et où la Chine augmente petit à petit son influence, bien qu’encore minoritaire par rapport aux entreprises occidentales. L’investissement chinois dans l’exploitation minière en Afrique progresse très rapidement 24 . Pour l’instant, les minerais concernés ne sont pas principalement les terres rares, mais d’autres métaux tout autant stratégiques comme le cuivre, le fer, le cobalt, le zinc ou le nickel. La valeur de la production minière contrôlée par des investisseurs chinois à l’extérieur de la Chine était de 21,5 milliards de dollars en 2018 25 . Toujours en 2018, les entreprises chinoises contrôlaient moins de 12 % de la valeur totale des minéraux et des métaux produits en Zambie, 24 % en République démocratique du Congo (notamment pour le cobalt) et 37 % en Guinée. En Érythrée, où aucune autre société minière n’est active, les sociétés chinoises partagent le contrôle avec le gouvernement érythréen, avec 60 % pour la Chine. Entre 2005 et 2013, Pékin a investi 108 milliards de dollars en Afrique, dont 16,3 dans le secteur minier 26 . Les investissements miniers chinois globaux sont estimés autour de 125 milliards pour la même période. La Chine a donc rapidement développé son influence dans les pays concernés par les routes de la soie, d’où, par exemple, la prise de contrôle du port sri lankais de Hambantota par la Chine 27 . Il ne sera pas impossible à l’avenir de voir des pays financièrement faibles tomber dans le piège de la dette, et de devoir de ce fait « rembourser » la Chine avec leurs ressources naturelles. Ainsi, une dizaine de pays (Djibouti, Kirghizstan, Laos, Maldives, Mongolie, Monténégro, Pakistan, Tadjikistan, Éthiopie, Kenya) ne seraient pas en mesure de rembourser leurs dettes à la Chine. Récemment, le Monténégro qui s’est retrouvé dans l’incapacité de rembourser un crédit de 1 milliard de dollars (944 millions) et, après avoir appelé en vain l’UE à l’aide pour un soutien financier, a été touché par la stratégie chinoise. Depuis quelques années, le gouvernement chinois investit massivement dans les Balkans, car cette zone stratégique est l’aboutissement des routes de la soie, Pékin exploitant les divisions et rivalités intereuropéennes pour renforcer son emprise géoéconomique sur le Vieux Continent. Par ce « piège » de la dette, la Chine pourrait être en mesure non seulement de construire les routes et lignes ferroviaires nécessaires pour le projet de routes de la soie, mais aussi de prendre littéralement le contrôle d’infrastructures nationales entières, dans une sorte de néocolonialisme géoéconomique à la chinoise à l’assaut de la souveraineté des États les plus vulnérables. Les terres rares, clé des énergies renouvelables, mais désastre pour l’environnement... La surexploitation et la surconsommation de matières premières poussées par la mondialisation marchande a des effets dévastateurs, car pour l’exploitation des métaux, la Chine n’a pas hésité à détruire des écosystèmes, à assécher des nappes phréatiques et à polluer massivement. Pour ce faire, de nombreux produits chimiques sont utilisés, dont l’acide fluorhydrique, sous forme de poussière, que respirent les mineurs et qui est particulièrement nocif. Les produits nocifs utilisés se répandent à des kilomètres aux alentours des mines vers les zones agricoles, ce qui rend les terres de moins en moins fertiles et contamine les récoltes. Des villages entiers ont également été abandonnés. Mais les vies humaines ont peu de valeur aux yeux des autorités chinoises, comparées à l’intérêt économique de la production et son enjeu géoéconomique. Le pays compte des milliers de mines et de raffineries de métaux rares : la ville de Baotou, en Mongolie intérieure, est zone d’exploitation contrôlée par Pékin la plus connue, avec des infrastructures impressionnantes (dédiées au raffinage des terres rares). C’est aussi une des zones les plus polluées du monde avec des eaux surchargées de métaux lourds et même parfois radioactifs, relâchés par les raffineries qui vont ensuite s’infiltrer dans le sol et les nappes phréatiques, ce qui implique de sérieux problèmes de santé et entraîne le déplacement de populations entières. Les habitants de la région continuent malgré tout à vivre autour de ces mines dans des villages que l’on appelle aujourd’hui « villages du cancer » en raison de l’augmentation impressionnante des tumeurs 28 . C’est au prix de cette pollution que nos voitures électriques, panneaux solaires et éoliennes viennent diminuer les émissions de CO 2 chez nous. En réalité, les émissions sont tout simplement délocalisées, car la Chine en émet beaucoup pour assurer la production, et c’est aussi pour éviter les catastrophes écologiques que les Occidentaux ont délocalisé massivement ces industries en Chine ou ailleurs, ce qui souligne l’extrême hypocrisie des moralisateurs qui veulent bénéficier des avantages de la nouvelle économie consommatrice de terres rares et productrices de CO 2 mais sans en subir les conséquences sur leur sol... Stress hydrique et barrages : les guerres de l’eau en question L’eau, élément vital, est encore plus essentielle à l’humanité que les énergies étudiées plus haut. Elle est essentielle au développement socio-économique, à la production d’énergie et d’aliments, à la santé des écosystèmes et à la survie de l’humanité elle-même. Et elle est plus que jamais un enjeu de rivalités entre les nations. L’eau est également au cœur de l’adaptation aux changements climatiques, lien crucial entre la société et l’environnement. Les villes ayant toujours été construites en priorité près des points d’eau, l’abondance d’eau dans une région est souvent synonyme de richesse. À l’inverse, là où l’eau n’est pas présente ou presque, la pauvreté y est plus fréquente et les conditions de vie plus précaires. Même riches, les pays enclavés n’ayant pas d’accès aux grands fleuves et à la mer sont en situation de vulnérabilité. Et ceux qui sont situés dans des zones équatoriales et désertiques ont un vrai défi à relever face à la nature et à leurs voisins pas forcément coopératifs. Indépendamment des rivalités entre nations, autour de l’accès aux mers et aux fleuves, avoir une bonne gestion de l’eau est un vecteur essentiel de l’amélioration des conditions de vie et de la cohésion de la société tout entière. Quelques chiffres 2,2 milliards de personnes dans le monde n’ont pas accès à des services d’eau potable gérés de manière sûre. 4,2 autres milliards d’êtres humains manquent de services d’assainissement gérés de manière satisfaisante et sûre. 297 000 enfants de moins de 5 ans meurent chaque année de maladies diarrhéiques à cause d’eau de mauvaise qualité. Surtout, près de 700 millions de personnes n’ont toujours pas accès à une eau propre et salubre et deux autres milliards auraient besoin d’accéder à un assainissement amélioré. Environ 80 % des eaux usées dans le monde sont rejetées dans l’environnement sans traitement. L’agriculture représente près de 70 % des prélèvements d’eau 29 . L’eau devient une ressource de plus en plus rare et précieuse, notamment dans certaines zones mal dotées, et l’on estime que les besoins en eau devraient augmenter de 40 à 50 % d’ici une trentaine d’années. Par ailleurs, les États peu développés ou ayant une économie faible ont les plus grandes difficultés à relever le défi de la pénurie, car ils n’ont pas les moyens budgétaires et technologiques pour réaliser les investissements nécessaires permettant de traiter les eaux usées ou de dessaler l’eau de mer. Et du fait de l’augmentation de la demande (qui a plus que triplé en un demi-siècle), les pays les moins avancés et en pleine explosion démographique et économique auront à l’avenir de plus en plus de difficultés pour se procurer de l’eau potable. C’est là que le cercle vicieux du développement et de la mondialisation apparaît : avec les taux de natalité incontrôlés, le fait de manquer de ressources hydrauliques freine à son tour le développement économique, agricole et énergétique. La consommation en eau d’un pays est par conséquent un indicateur de développement économique et un motif possible de conflits entre pays qui se partagent les eaux. D’après les estimations, la consommation d’eau douce mondiale a augmenté d’environ 1 % par an entre 1987 et 2018. Beaucoup de régions ont ainsi atteint les limites de leur approvisionnement tandis que les échanges, l’urbanisation et la population mondiale ont augmenté. Il faut aussi savoir que la population s’accroît en majorité dans les pays en développement, avec en tête l’Inde et le Nigeria, qui sont déjà tous deux en situation de stress hydrique grave. Il y a un siècle, 15 000 m 3 d’eau étaient annuellement disponibles par habitant de la planète. En 2030, il ne devrait en rester que 3 000, le minimum vital étant de 1 800 m³. Les causes majeures de cette baisse sont la croissance démographique, l’évolution des modes de consommation alimentaire (hausse du niveau de vie) et les besoins accrus en énergie liés à la mondialisation marchande et au développement. À l’avenir, notre alimentation risque donc d’être par ailleurs profondément perturbée, quand on sait qu’il faut environ 15 000 litres d’eau pour produire 1 kg de viande de bœuf, alors que la demande s’accroît dans les pays en développement (Inde, continent africain et d’autres comme des pays comme les États-Unis, l’Argentine ou le Brésil) en raison de la consommation démesurée. En France et dans l’ensemble des pays européens du Sud, les épisodes de sécheresse chaque été, les restrictions d’usage associées et le contexte de crise ont donné un intérêt nouveau au débat sur la gestion de la demande en eau, en particulier sur les instruments économiques, financiers et fiscaux, tels que les prix et taxes sur les prélèvements et rejets. On observe aussi en Italie ou en Espagne des mesures de coupure d’eau pendant les périodes de sécheresse en vue d’économies. Le réchauffement climatique et la surconsommation de l’eau vident de plus en plus les nappes souterraines et les rivières à mesure que les besoins augmentent. Ceci fera fortement augmenter le prix de l’eau à l’avenir, les plus pauvres ne pouvant plus, à terme, satisfaire leurs besoins les plus élémentaires. De plus, les conséquences du réchauffement climatique obligent chaque année toujours plus de personnes à quitter des zones arides devenues invivables et en voie de désertification. Ces migrations et mouvements de populations sont naturellement un puissant vecteur d’instabilité et de conflits entre nations ou tribus, souvent d’ailleurs sur fond de tensions ethnoreligieuses (Burkina Faso, Mali, Niger, Nigeria, etc.). Il faut savoir que rien qu’en 2019, selon l’IDMC (Observatoire de déplacement interne 30 ), 8 millions de personnes ont été poussées à l’exode à cause de catastrophes naturelles, dont environ 800 000 liées aux sécheresses. En moyenne, plus de 17 millions de personnes risquent d’être déplacées par les inondations chaque année, et ces chiffres ne peuvent malheureusement qu’augmenter à l’avenir. En Afrique également, les fleuves Congo, Niger et le Nil Bleu constituent des théâtres d’investissements autour de l’énergie hydroélectrique. Les compagnies chinoises rivalisent en lobbying avec les multinationales occidentales et israéliennes pour y remporter les marchés. Dans le même temps, les projets de barrages hydrauliques ambitieux comme ceux d’Éthiopie peuvent être de graves sources de tensions, voire de guerre, entre pays voisins, en l’occurrence entre l’Éthiopie, le Soudan et l’Égypte. Le contrôle des rivières, mers et océans, source de conflits L’essor de la mondialisation économique a créé de nouveaux enjeux géoéconomiques dans lesquels l’eau détient une place fondamentale, que ce soit pour la vie des populations, l’agriculture, ou le contrôle des routes commerciales ou des réserves énergétiques s’y trouvant. La question de potentialité des conflits autour de l’eau est en tout cas de taille, lorsqu’on sait que plus de 40 % de la population mondiale est répartie autour de 250 bassins transfrontaliers. Cela implique pour les populations de devoir partager leurs ressources avec leurs voisins, les risques de tensions étant très importants lorsque les pays où se trouvent les sources sont tentés de profiter de leur position avantageuse. Les tensions au sujet de l’eau peuvent venir de plusieurs causes : sécheresse, barrages ou autres aménagements hydrauliques et détournements des flux qui diminuent les ressources d’un pays aux dépens d’un autre ; répartitions des zones d’exploitation des fleuves imprécises ; pollution ; usages abusifs. Depuis une dizaine d’années, les tensions et contentieux interétatiques liés à l’eau sont en nette augmentation, et les « guerres de l’eau », spectre régulièrement agité depuis des décennies, mais heureusement jamais concrétisé dans ses modalités les plus pessimistes, deviennent de plus en plus probables. D’autant qu’au-delà de la simple nécessité d’avoir de l’eau pour s’alimenter et pour l’agriculture, les mers et les océans regorgent de matières premières et d’hydrocarbures. En témoignent les récentes disputes autour des réserves de gaz et de pétrole off-shore en mer de Chine (opposant Chine, pays d’Asie du Sud-Est et Japon) et en Méditerranée orientale (entre la Turquie et la quasi-totalité des pays riverains voisins). Désertification, ressources hydriques, disputes autour des ZEE et des barrages vont de plus en plus devenir des sources de déstabilisation, voire de guerres, sachant que les grandes routes commerciales de la mondialisation sont essentiellement maritimes. Le contrôle de ces mêmes routes est un enjeu vital pour les nations exportatrices. Les pays privés d’accès à la mer, et donc aux énergies qui s’y trouvent, ou dont les eaux fluviales sont diminuées à cause des barrages effectués en amont par des pays disposant des sources et peu soucieux de rechercher un consensus, peuvent être tentés d’instaurer leur propre ordre régional unilatéral. Surtout s’ils ont l’avantage militaire, comme la Chine, l’Égypte ou la Turquie, par rapport à leurs voisins. Par ailleurs, les normes, accords ou réglementations internationales autour de la gestion et des partages des eaux manquent cruellement ou sont bafoués au nom des intérêts nationaux. Ici encore, l’échec du multilatéralisme est patent et les traités de coopération acceptés – donc fonctionnels sur ces matières – ne couvrent aujourd’hui que 60 des 250 bassins fluviaux précédemment évoqués. Certains experts n’hésitent plus à pronostiquer qu’au XXI e siècle, l’« or bleu » prendra la place de l’« or noir » dans les conflits entre États. Avoir accès à l’eau est un enjeu économique majeur qui pourrait devenir, dans le siècle à venir, l’une des premières causes de tensions internationales pour les raisons exprimées précédemment. Depuis plusieurs décennies, le programme des Nations unies pour le développement (Pnud 31 ) a recensé une quarantaine de situations conflictuelles entre des États au motif de l’accessibilité aux ressources hydriques. Elles concernent pour l’essentiel les pays moyen-orientaux et africains, même si, pour le moment, aucune de ces crises ne s’est transformée en un conflit durable. En Asie, par exemple, les litiges autour de l’eau des fleuves ne manquent pas : les grands travaux chinois destinés à détourner les eaux du Mékong, notamment pour les canaliser vers d’autres cours d’eau, ou même du Brahmapoutre, du Gange, de l’Indus, de Syr-Daria ou de l’Amou-Daria, inquiètent le Laos, le Cambodge, le Viêtnam, et d’autres pays d’Asie. Les réserves d’eau potable peuvent également être les cibles d’offensives militaires ou terroristes pouvant causer des catastrophes humanitaires 32 . Il peut s’agir d’attaques sur des digues, les barrages (dont la destruction éventuelle rend les villes aux alentours extrêmement vulnérables), ou les centrales hydroélectriques, qui viseraient à toucher directement les populations civiles et à créer des situations de troubles internes et de chaos. On peut citer ici l’exemple de la destruction, en juin 1938, de la digue de Huayuankow sur le fleuve Jaune, lors de la guerre Chine- Japon, qui provoqua des inondations de milliers d’hectares et fit entre 500 000 et 900 000 victimes et plus de 5 à 10 millions de réfugiés. Il s’agit de l’un des plus grands désastres écologiques militaires de l’histoire. Il en est allé de même durant la guerre du Viêtnam, avec le déversement, par les forces américaines, de produits chimiques et défoliants (agent orange chargé de dioxine et d’arsenic) qui ont entraîné une pollution destructrice des sols sur les populations dont les effets sont encore visibles aujourd’hui. Guerres de l’eau entre la Turquie et ses voisins La Turquie est un pays très avantagé pour ses ressources en eau en comparaison de ses voisins syrien et irakien. Elle s’est donc vue attribuer le nom de « château d’eau de la région », grâce au fait que le Tigre et l’Euphrate prennent leurs sources en Anatolie avant de se diriger vers la Syrie et l’Irak. Ankara a ainsi construit nombre de barrages hydroélectriques, notamment en Anatolie orientale, ce qui lui confère des moyens de pression considérables sur ses voisins, puisqu’elle peut jouer sur les variations de débit du fleuve. Les problèmes opposant la Turquie à ses voisins irakien et syrien sont certes anciens, mais après avoir été mis au second plan dans les années 2000, Recep Tayyip Erdoğan les a ressuscités en même temps que son projet irrédentiste néo-ottoman (voir carte n o 9) voué à dominer les pays arabes voisins. Ankara refuse de reconnaître que les fleuves Tigre et Euphrate (dont les sources se trouvent en Turquie anatolienne) sont internationaux, ceci afin de ne pas se voir imposer des contraintes. Le pouvoir turc poursuit donc sa politique de grands barrages au détriment de ses voisins situés en aval qui voient de ce fait leur débit diminuer : l’Euphrate draine à lui seul un bassin-versant de 440 000 km² réparti à 35 % en Syrie et 45 % en Irak, et le Tigre draine 258 000 km², avec 53 % en Irak et 33 % en Iran principalement 33 . Depuis les années 1970, le projet GAP (Great Anatolian Project) tient une place stratégique majeure dans la politique énergétique d’Ankara, et il devrait lui permettre à terme de contrôler près de 90 % du débit de l’Euphrate et plus de 50 % de celui du Tigre, avec au total 22 barrages. Les baisses de débit des fleuves subies par les pays voisins ont déjà atteint un niveau insupportable : l’Euphrate a perdu 40 % du débit arrivant en Syrie, et le Tigre 24 % de celui débouchant sur l’Irak. Les conséquences pour la Syrie et l’Irak sont dramatiques, notamment à cause du barrage d’Illisu (frontière turco-irakienne), qui pompe l’eau du Tigre. Ces diminutions de son débit côté irakien ont notamment débouché sur les émeutes de la soif de Bassora, survenues en 2018 après les fortes pénuries d’eau et la pollution des rivières qui ont entraîné l’hospitalisation d’au moins 118 000 personnes. La Turquie à l’assaut des réserves de gaz et de pétrole de Méditerranée orientale La politique géoénergétique de la Turquie en mer Méditerranée orientale ressemble à celle de Pékin en mer de Chine méridionale. Sa consommation de gaz augmentant considérablement depuis dix ans en raison de la rapide croissance économique turque et de l’augmentation de sa population, Ankara a récemment réactivé son vieil irrédentisme ottomaniste visant à justifier une mainmise sur les énergies de cette mer stratégique et ses ZEE. Le territoire turc est certes une voie de transit majeure pour le gaz et le pétrole arabes et perses du Golfe, puis turcophones et russes de la zone Caucase-mer Caspienne 34 , d’où l’inauguration du gazoduc russo-turc Turkish Stream, le 8 janvier 2020 35 (voir carte n o 13). Toutefois, c’est dans la mer que se trouvent les énergies qui manquent au territoire turc, peu producteur d’hydrocarbures, et dont le pouvoir d’Ankara veut s’emparer au détriment de ses voisins. Les énormes réserves de gaz off-shore découvertes et prouvées dans les années 1990-2000 en Méditerranée orientale (Chypre, mer Égée, Égypte, Palestine-Gaza, Israël, Liban, Syrie), évaluées à 50 milliards de mètres cubes, constituent un enjeu quasiment vital pour Ankara, d’où le contentieux croissant avec les États riverains partageant ces eaux. Les deux pays les plus directement visés par les appétits géoénergétiques turcs sont la Grèce et Chypre. Anticipant les revendications d’Ankara, la république de Chypre – dont 37 % du nord est occupé illégalement depuis 1974 par l’armée turque – avait certes délimité sa frontière maritime avec l’Égypte dès 2004, avec le Liban en 2007, avec Israël en 2010, et elle signa plusieurs accords avec des sociétés pétrolières internationales comme l’italienne Eni, la française Total, les américaines Noble Energy ou ExxonMobil et la britannique BP (voir carte n o 7). Mais le problème n’a pas pu être résolu sur la base des accords internationaux et les principes du droit de la mer : la Turquie ne reconnaît pas la convention de Montego Bay sur le droit de la mer, pourtant reconnue par tous les pays de l’Union européenne, car elle accorderait, selon Ankara, beaucoup trop peu de souveraineté sur les eaux et îles avoisinantes à la Turquie. Le gouvernement turc prétend ainsi avoir été injustement « exclu » des marchés des forages qui impliquent Israël, où les champs gaziers Leviathan et Tamar ont été découverts. Il conteste de ce fait toutes les frontières maritimes et délimitations entre Chypre, la Grèce et les pays arabes ou Israël, et il affirme en particulier que ni la république de Chypre (non reconnue par Ankara, voir carte n o 12), ni les îles grecques de Crète et de mer Égée n’ont droit à des ZEE larges comme celles définies jusqu’alors (voir carte n o 7). Comme le pouvoir de Pékin en mer de Chine méridionale, le régime d’Ankara conteste donc les frontières maritimes établies et revendique un redécoupage des ZEE, de gré ou de force, comme on l’a vu depuis 2018. La narration turque permet de revendiquer la moitié des eaux et réserves de gaz off-shore de Méditerranée orientale au détriment des autres pays riverains et elle sert à légitimer ses forages illégaux et ses actions visant à empêcher, manu militari, les forages légalement entrepris par les pays riverains... Conflit avec Chypre et la Grèce Pour la Turquie, les accords d’exploitations légaux signés par Chypre avec ses voisins ne « représenteraient » que la partie non turque de Chypre, une accusation rejetée par Nicosie qui déplore que la présence turque dans le nord est le fruit d’une invasion (opération Attila, 1974, voir carte n o 12) et d’une occupation illégale 36 . Le 22 février 2018, la marine turque a ainsi envoyé quatre navires protégés par son aviation militaire dans le périmètre de l’île d’Aphrodite pour prospecter et extraire illégalement du gaz, et elle en a même chassé manu militari un navire de forage du pétrolier italien Eni qui se rendait au champ gazier égyptien de Zohr. Les navires turcs ont empêché la plate-forme navale de l’Eni (Saipem 12000) de forer dans le sud de Chypre, zone off-shore qui avait déjà été mise « sous embargo » par la Turquie le 9 février 2018 avec l’envoi de cinq navires de guerre turcs. Début octobre 2019, Ankara a envoyé à nouveau son navire de forage Yavuz, opéré par la compagnie étatique turque TPAO, sur le bloc de forage off-shore n o 7, pourtant octroyé initialement à l’italienne Eni et à la française Total par la république de Chypre (voir carte n o 7). La Turquie a donc ainsi violé la légalité et la souveraineté chypriote. La France a été alors le seul pays de l’UE (hors Grèce) à se montrer diplomatiquement, politiquement et militairement solidaire de Chypre qui dénonce les forages illégaux turcs au sud de l’île (zones 7 et 8) en violation totale du droit international maritime. La Grèce est également contestée dans ses frontières maritimes mêmes : Ankara remet régulièrement en question le traité de Lausanne, fondateur de la Turquie post-ottomane, qui accordait à la Grèce 43 % des espaces marins en mer Égée. Cette dénonciation des frontières internationalement reconnues fait de plus en plus planer sur la Grèce, le pire scénario : celui de l’invasion d’îles grecques égéennes survolées illégalement chaque jour par l’aviation turque. Ankara menace en effet régulièrement d’envahir des îles grecques si un nouveau partage des eaux territoriales à son avantage n’est pas mis en œuvre. Cette revendication remet dangereusement en cause le droit de la mer et les frontières internationalement reconnues entre la Turquie et ses voisins. Athènes dénonce également le récent accord turco-libyen controversé, signé en 2019, relatif au partage des espaces maritimes entre Ankara et le gouvernement de Tripoli et qui vise en fait à accroître considérablement la souveraineté maritime de la Turquie en Méditerranée dans une large zone située entre la Crète et Chypre qui regorge de gaz et où Ankara a effectué des forages exploratoires. (Voir carte n o 5). Ces forages illégaux ont été dénoncés par l’Union européenne, qui a menacé en vain Ankara de sanctions. À ce propos, il est instructif de visionner l’audition, le 1 er juillet 2020, de l’ambassadeur de Turquie, Ismaïl Hakki Musa, à la commission des Affaires étrangères du Sénat 37 . Le diplomate y reconnaît que son pays revendique officiellement un plus grand domaine maritime (zones économiques exclusives) au détriment de deux pays membres de l’UE – Chypre et la Grèce – et qu’il conteste carrément le tracé des frontières issues du traité de 1923. L’ambassadeur expose ainsi courtoisement la vision turque irrédentiste officielle décomplexée et justifie les repérages et forages illégaux des navires pétroliers et gaziers turcs dans les eaux souveraines de Chypre et des îles grecques égéennes. Le 21 juillet 2020, la marine turque a d’ailleurs dépêché dix- huit navires de guerre dans les eaux territoriales grecques chargés « d’escorter » un pavillon de recherche d’hydrocarbures sous-marin prospectant illégalement les réserves de gaz autour de l’île grecque de Kastellorizo. Affaire à suivre... Conflit avec l’Égypte autour de la Méditerranée et de la Libye Sachant que Chypre et l’Égypte ont conclu un important accord portant sur la construction du premier pipeline sous-marin transportant du gaz naturel chypriote depuis le gisement off-shore « Aphrodite » jusqu’en Égypte, qui le transformera en gaz naturel liquéfié, l’Égypte a dû envoyer en février 2018 son porte-hélicoptères Mistral Anouar el Sadate et des sous-marins pour défendre le champ gazier égyptien de Zohr revendiqué par la Turquie. Les deux pays s’opposent aussi – et même surtout – au sujet de la Libye, tant pour le pétrole terrestre que pour le gaz off-shore, l’enjeu étant gigantesque et la mer entrant en scène sur deux plans complémentaires. Outre le fait que, depuis le printemps 2020, la Turquie d’Erdoğan a pris fait et cause pour les milices des Frères musulmans de Misrata et pour le régime ouest-libyen de Fayez al-Sarraj – en soi un casus belli pour Le Caire qui mène une guerre interne totale contre les partisans de l’ancien Président frériste déchu et défunt, Mohamed Morsi –, la défense par la Turquie du régime de Tripoli a une dimension bien plus concrète et géoénergétique : le 27 novembre 2019, Ankara et Tripoli ont signé un accord turco-libyen de (re)délimitation des eaux de mer Méditerranée orientale qui attribue illégalement près de 40 % de cette mer à la Turquie, au détriment des ZEE de la Grèce, de la république de Chypre, et de l’Égypte (voir carte n o 7). Face à l’activisme turc grandissant en Méditerranée orientale, Nicosie, Athènes et Le Caire tentent de constituer un front commun, tandis que la France, très isolée au sein des pays de l’UE et de l’Otan, y a renforcé momentanément sa présence militaire mi-août 2020 avec le déploiement de deux chasseurs Rafale en Crète et de deux navires de guerre (frégate La Fayette et porte-hélicoptères Tonnerre, en route vers Beyrouth), en soutien à la Grèce et à Chypre, qui ont des accords de défense avec Paris. Ankara et Le Caire s’opposent également autour du territoire palestinien de Gaza (contrôlé par le groupe frère musulman terroriste Hamas), dont la mer alentour dispose aussi d’une importante réserve de gaz. La Turquie y soutient opportunément ce mouvement islamiste radical, fortement combattu en revanche par l’Égypte, qui considère Gaza comme une chasse gardée, tout comme le considère la Turquie d’Erdoğan, ennemi personnel du président égyptien al-Sissi... Tout est lié, et les velléités propalestiniennes et antisionistes du néosultan Erdoğan à Gaza, présentées comme une « défense des musulmans opprimés », ne sont pas étrangères aux ambitions à la fois néo-impériales ottomanistes du reis turc et aux appétits géoéconomiques d’Ankara... De l’Asie centrale au Golfe arabo-persique On peut également citer l’exemple de la mer d’Aral, située en Asie centrale, plus précisément entre le Kazakhstan et l’Ouzbékistan, qui a bien failli disparaître durant l’ère soviétique. Motivé par la culture du coton destinée à l’industrie textile, le détournement, par les pays riverains, des fleuves Amou-Daria et Syr-Daria – qui alimentent normalement la mer d’Aral – a entraîné une privation par cette dernière de ses sources vitales. Au Yémen, les enjeux autour de l’eau sont dramatiques et la situation est empirée par le conflit qui oppose, au niveau régional, l’Iran à l’Arabie saoudite, puis, au niveau local, les forces chiites séparatistes houthies au pouvoir sunnite élu – sans oublier les groupes djihadistes liés à Aqpa (al-Qaida au Yémen) et Daesh. Différentes forces combattantes terroristes et criminelles utilisent en fait une grande partie des ressources du pays en eau pour produire une drogue, « le qat », qui consommerait entre 40 et 50 % de l’eau liée à l’agriculture. En conséquence de la guerre civile endémique et de cette narco-industrie, les nappes phréatiques sont extrêmement polluées, ce qui entraîne un grave manque d’eau potable : sur les 24 millions d’habitants au Yémen, 13 millions n’y ont pas accès pas plus qu’à un assainissement correct de l’eau, maintes maladies se répandent ainsi, de sorte que chaque année, 3 000 personnes meurent de diarrhée et de famine, ceci dans la quasi-indifférence générale des politiques et médias occidentaux qui sont les obligés des monarchies islamistes sunnites du Golfe et dont le sort des civils chiites accusés de connivence avec l’Iran ne suscite pas outre mesure la compassion... De gros contentieux sont également observés autour de la répartition des débits du Nil. Ce dernier, avant d’alimenter l’Égypte et le Soudan, traverse et irrigue une dizaine de pays (Soudan du Sud, Érythrée, Éthiopie, Kenya, Ouganda, République démocratique du Congo, et même Rwanda, Burundi et Tanzanie). Et la plupart d’entre eux sont soumis, comme l’Égypte, à un rude climat et à une démographie explosive, par conséquent à une augmentation exponentielle des besoins en eau. Le barrage d’Assouan a ainsi provoqué un grave litige ainsi que des tensions croissantes entre l’Égypte et le Soudan, notamment à propos de la répartition de l’eau, car il a en effet conduit à la création du lac Nasser, situé en grande majorité en Égypte avec une petite partie au Soudan (500 km de long dont 150 au Soudan). La majeure partie de l’eau est donc à disposition et sous contrôle de l’Égypte. Quant à l’Éthiopie, son contentieux fluvial avec l’Égypte risque de façon récurrente de déboucher sur une guerre : la goutte qui a fait déborder le vase a été, en 2011 (pendant le printemps arabe égyptien), la construction d’un énorme barrage hydroélectrique nommé « barrage de la Renaissance » sur sa branche du Nil, probablement le plus grand d’Afrique et qui devait devenir opérationnel en 2022. Pour l’Égypte, ce projet a comme conséquence inacceptable de provoquer la baisse de son propre débit et donc de lui faire perdre des ressources en eau pendant la durée du remplissage du réservoir du barrage, ce qui ne peut être en fin de compte que néfaste pour son agriculture. Par ailleurs, l’Éthiopie refuse toute implication de l’Égypte dans le chantier. Le ton est de nouveau monté en 2019, lorsque le Premier ministre éthiopien, Abiy Ahmed, a déclaré, lors d’une séance de questions-réponses au Parlement : « Aucune force ne pourrait empêcher l’Éthiopie de construire le barrage... Un quart de la population est pauvre et jeune, donc nous pourrions en mobiliser des millions s’il le faut 38 . » Le président égyptien Abdel Fattah al- Sissi a rétorqué aux Nations unies : « l’Égypte ne laissera jamais Addis-Abeba imposer une situation de fait », et il a même menacé l’Éthiopie d’une réplique militaire... Plus récemment, en mai 2021, l’Égypte a reçu le soutien inconditionnel du Soudan pour faire face à l’Éthiopie au cas où cette dernière ne mettrait pas un terme au remplissage du grand barrage de la Renaissance après l’expiration de l’ultimatum égyptien (juin 2021). Si l’Éthiopie persiste, une guerre ouverte peut être déclenchée par l’Égypte, pour qui la privation d’une partie du débit du Nil est une question existentielle. Les conséquences humanitaires et géopolitiques pour toute l’Afrique de l’Est et du Nord, et même au niveau mondial, seraient dramatiques en raison des interdépendances entre les risques stratégiques, migratoires, énergétiques, terroristes et de la centralité du Nil, du canal de Suez, de la mer Rouge et du détroit de Bab el-Mandeb dans le commerce mondial et les approvisionnements énergétiques. La Chine à la conquête de la puissance maritime et des ressources subaquatiques Les guerres de l’eau ne se limitent pas, loin s’en faut, à la nécessité vitale de l’approvisionnement aquatique pour survivre, se nourrir, se laver, ou pour entretenir l’agriculture et l’industrie, car les océans et les mers regorgent de métaux précieux et de réserves d’hydrocarbures. Le spectaculaire développement économique de la Chine ces dernières années l’a poussé à développer sa puissance diplomatique et bien évidemment militaire dans le monde et plus particulièrement en mer de Chine du Sud, comme déjà évoqué au début de cet ouvrage. Cette zone est très stratégique pour la Chine, comme pour d’autres pays, car un tiers des transports maritimes mondiaux transite par la mer de Chine méridionale. La nation qui aura la mainmise sur cette zone contrôlera donc l’une des routes commerciales les plus importantes. Ceci est fondamental pour l’objectif de la Chine (parallèlement aux routes de la soie) de disposer de toutes les ressources que ces eaux recèlent. La mer de Chine abriterait en effet de réserves d’hydrocarbures équivalentes à 5 380 milliards de mètres cubes de gaz et 11 milliards de barils de pétrole 39 . Toute la zone est par conséquent devenue un théâtre de rivalité, principalement entre, d’une part, les États-Unis et leurs alliés du Sud-Est asiatique et, de l’autre, le pouvoir chinois qui y voit une zone stratégique qui lui appartiendrait de droit : l’empire du Milieu y revendique 90 % des eaux potentiellement riches en hydrocarbures et traversées par des voies maritimes de première importance, et Washington y perçoit un danger pour ses alliés dans la région ainsi qu’une menace directe contre sa flotte navale présente. La Chine y a donc déployé ses troupes, elle y patrouille et y réalise régulièrement des exercices militaires croissants en vue d’intimider ses rivaux. Sa stratégie consiste à s’approprier progressivement des îlots, archipels ou espaces maritimes stratégiques afin d’asseoir ses revendications territoriales. Le gouvernement de Pékin a réussi depuis quelques années à s’y implanter physiquement avec la construction d’îles artificielles appelées la « grande muraille de sable 40 ». Dans l’archipel des Spratleys, la Chine a ainsi construit 7 îles artificielles abritant des canons antiaériens, des missiles et des drones et capables d’accueillir 24 avions de chasse par île, soit 72 avions. Ceci semble assez éloigné de l’usage civil que Pékin affiche pour ces îles... Dans les Paracels, la Chine a également construit, en 2014, une base avec une piste d’atterrissage et un port, autre pierre d’achoppement majeure avec le Viêtnam, notamment 41 ... En fait, le gouvernement chinois a profité de la pandémie mondiale et de l’attention généralisée des États-Unis et autres pays sur le virus pour renforcer ses positions en mer de Chine du Sud. Le 3 mars 2020, un bâtiment des garde-côtes chinois a ainsi éperonné et coulé un navire de pêcheurs vietnamien dans le secteur des îles Paracels. Une semaine plus tard, le porte-avions chinois Liaoning a traversé deux fois le détroit de Miyako, situé dans ZEE du Japon. Le pouvoir de Pékin a également installé dans la même période deux centres de recherche dans les îles Spratleys (voir carte n o 6). L’édification d’îles artificielles a été clairement une stratégie payante pour la Chine qui subvertit ce qu’on appelle le « droit de la mer » en revendiquant une souveraineté sur ce qu’elle considère comme étant sa mer territoriale, soit 12 milles et une ZEE s’étendant jusqu’à 200 milles autour de chaque récif aménagé. Ceci donne à Pékin un libre accès aux ressources halieutiques et à l’exploitation du sol et du sous-sol. Dans le cadre d’une tension ascendante, début août 2020, les États-Unis et la Chine ont successivement effectué des exercices militaires en tirant plusieurs missiles balistiques. Le risque à l’avenir pourrait même être une escalade militaire entre les deux superpuissances, voire un conflit armé qui, en plus d’impliquer la Chine et les États-Unis, associerait également leurs alliés respectifs, notamment le Japon, l’Indonésie, les Philippines, Taiwan, la Thaïlande ou le Viêtnam. 1. En anglais, IPCC : Intergovernmental Panel on Climate Change. 2. Quarante gaz à effet de serre sont recensés par le Giec : vapeur d’eau (H 2 O) ; dioxyde de carbone (CO 2 ) ; méthane (CH 4 ) ; ozone (O 3 ) ; protoxyde d’azote (N 2 O) ; hydrofluorocarbure (HFC) ; perfluorocarbures (PFC) ; hexafluorure de soufre (SF 6 ). 3. Morgan Freeman (1923-2020), scientifique ayant reçu vingt et un titres de docteur honoris causa, ex-membre de la Royal Society et de l’Académie nationale des sciences américaine, critique l’alarmisme sur le climat, lié selon lui à un manque de validité des modèles informatiques utilisés et fondé sur des prévisions non vérifiées. 4. Trois cents millions de tonnes de CO 2 émises ; 18,6 millions d’hectares brûlés (15 fois l’Île-de-France), 5 900 bâtiments détruits, 100 000 évacués, 500 morts, 4 000 hospitalisés. Trois milliards d’animaux tués/impactés (rapport WWF de juillet 2020). 5. Revenir dans l’accord suppose de réduire de 26 à 28 % les émissions de GES du pays d’ici à 2025. Un défi pour ce deuxième plus gros émetteur de GES responsable de 17 % de la pollution mondiale (après la Chine, 20 %). 6. Il souhaitait lancer les travaux de rénovation énergétique pour des millions de bâtiments afin d’épargner des dizaines de millions de barils de pétrole, créant des millions d’emplois, améliorant la santé des citoyens et nettoyant l’environnement. 7. Le terme « éco-civilisation » (« EC ») vient d’ailleurs d’être inscrit dans la Constitution chinoise dans le cadre d’une révision constitutionnelle approuvée, en mars 2018, par l’Assemblée populaire nationale. 8. « Les 100 jours de Joe Biden : “De quelle ampleur sera la politique de transformation énergétique ?” », Le Monde, 26 mars 2021. 9. Elle représentait alors 9,4 % du total de la consommation mondiale. En 2018, elle est passée à 19,3 %. 10. Le coût du solaire photovoltaïque a baissé de 50 % entre 2020 et 2015 et une autre diminution de 60 % est à prévoir d’ici 2025, d’après l’Irena – Agence internationale de l’énergie renouvelable. 11. Rapport du CDP (Carbon Disclosure Project) : Climate Change Report. Major Risk or Rosy Opportunity, 2019. 12. Source : Statistiques de la compagnie parapétrolière Baker Hughes (Houston). 13. Annonce du 10 décembre 2019, source : Agence américaine d’information sur l’énergie (EIA). 14. Dans les années 2000, l’UE et les EU appuyaient le projet de gazoduc Nabucco devant alimenter l’Europe avec du gaz de la mer Caspienne et d’Asie centrale afin de réduire la dépendance de l’UE vis-à-vis de la Russie. 15. Le groupe suisse Allseas, impliqué dans les travaux, a ainsi suspendu son activité par crainte de sanctions, voire d’une saisie des avoirs américains de la compagnie. 16. Voir Alexandre Del Valle, Les Vrais Ennemis de l’Occident, op. cit. 17. Construction des nouveaux réacteurs AP1000 de Vogtle en 2013, et Watts Bar, dans le Tennessee, en 2016. 18. Fukushima (2011), vingt-cinq ans après celle de Tchernobyl (1986) et trente-deux ans après l’accident de Three Miles Island aux EU (1979). 19. « Premier dragon » en mandarin. 20. Daniele La Porta Arrobas et Kirsten Lori Hund (coll.), The Growing Role of Minerals and Metals for a Low Carbon Future, World Bank Group, juin 2017. 21. Guillaume Pitron, La Guerre des métaux rares. La face cachée de la transition énergétique et numérique, Les Liens qui libèrent, 10 janvier 2018. 22. Programme stratégique chinois visant à faire de la Chine un leader industriel haut de gamme en développement les technologies axées sur l’innovation tout en réduisant certaines dépendances vis-à-vis des puissances étrangères. 23. Louis Torres Tailfer, « Les terres rares, un enjeu géopolitique sino-américain », La Tribune, 25 août 2019. 24. En 2018, il y avait 10 mines de fer, 20 mines de cuivre (dont certaines produisaient également du cobalt) et 14 mines d’or exploitées et totalement ou partiellement contrôlées par des investisseurs chinois. 25. Magnus Ericsson, Olof Löfet Anton Löf, « Chinese Control over African and Global Mining–Past, Present and Future », Mineral Economics, vol. 33, 22 juillet 2020. 26. Henri-Louis Vedie, « Les investissements miniers chinois en Afrique », OCP Policy Center, avril 2017. 27. Après une demande d’aide financière chinoise, le Sri Lanka n’a pas pu rembourser ses dettes envers la Chine et a dû céder le port d’Hambantota aux Chinois pour quatre-vingt-dix-neuf ans avec 6 000 ha de terrains autour. 28. Guillaume Pitron, La Guerre des métaux rares, op. cit. 29. Données des Nations unies, voir site officiel : www.un.org/fr. 30. IDMC, Rapport mondial sur le déplacement interne 2019, PDF téléchargeable sur le site de l’IDMC : www.internal-displacement.org. 31. Le Pnud, programme et fonds de l’ONU, est l’un des principaux organismes multilatéraux de développement contribuant à éradiquer la pauvreté et réduire les inégalités et l’exclusion. 32. Et les deux protocoles d’accords internationaux de l’ONU qui les interdisent n’ont pas été ratifiés par nombre de pays et n’ont aucune valeur dissuasive pour les pays souverains qui préfèrent rectifier des délimitations de ZEE par la force que de se soumettre à une quelconque juridiction ou entente internationale de toute façon non contraignante. 33. Pascal Le Pautremat, Géopolitique de l’eau, L’Esprit du temps, 2020. 34. Le territoire turc reçoit du gaz iranien, azerbaïdjanais, turkmène et russe, et la Turquie couvre 60 % de sa consommation par du gaz russe. Ankara a tenté de persuader Tel-Aviv de faire passer le gaz israélien et chypriote par la Turquie, en échange d’eau turque passant par Chypre à destination d’Israël. 35. Le gazoduc pourra acheminer chaque année 31,5 milliards de mètres cubes de gaz. 36. Les 37 % du nord de Chypre (« prétendue République turque du nord de Chypre », nom que l’ONU emploie officiellement) n’ont en effet jamais été reconnus par l’ONU, le Conseil de l’Europe et l’UE. 37. « L’ambassadeur de Turquie s’explique face aux sénateurs : une audition sous haute tension », 1 er juillet 2020, site du Sénat français : www.publicsenat.fr/article/politique/l-ambassadeur-de-turquie-s-explique-face-aux-senateurs-une-audition-sous-haute. 38. « Tension élevée entre l’Égypte et l’Éthiopie autour du projet de méga-barrage sur le Nil », Le Monde, 24 octobre 2019. 39. Hortense Goulard, « Les tensions sino-américaines en mer de Chine en cinq questions », Les Échos, 1 er septembre 2020. 40. Patrick Saint-Paul, « Pékin construit une “grande muraille de sable” en Mer de Chine », Le Figaro, 13 avril 2015. 41. Julien Licourt, « La Chine construit des îles artificielles pour revendiquer des zones maritimes », Le Figaro, 10 février 2015. PARTIE III NOUVEAUX DÉFIS CHAPITRE XI Les défis démographiques « L’inflation démographique a pour corollaire la guerre totale. » Gaston Bouthoul « Si fondamentaux sont les problèmes de population qu’ils prennent de terribles revanches sur ceux qui les ignorent. » Alfred Sauvy 1/ L’explosion démographique. De quelques chiffres édifiants D’après les estimations les plus fréquemment évoquées, la population mondiale s’élevait à 300 millions d’êtres au début de l’ère chrétienne, 700 millions en 1750, 1,4 milliard en 1850, 2 milliards en 1930, 5 milliards en 1990, 6 milliards en 2000, 7 milliards en 2010, et le cap des 7,55 milliards d’âmes a été franchi en 2019. La population devrait augmenter de quelque 90 millions de personnes par an ou, plus symboliquement encore, de quelque 250 000 individus par jour. Cet essor démographique totalement hors contrôle et exponentiel est sans précédent. Rappelons que cette progression est restée relativement lente jusqu’au milieu du XV e siècle et à la grande Révolution industrielle qu’a connue l’Europe de l’Ouest. Ensuite, les choses se sont accélérées sous l’effet de la colonisation puis du développement sous influence occidentale qui a apporté d’importants progrès médicaux dont les effets immédiats ont été de diminuer la mortalité infantile, sans toutefois que l’évolution des mœurs ne suive et n’implique un contrôle des naissances, principalement en terres africaine et musulmane où cette politique s’est toujours heurtée aux mentalités fortement natalistes. De ce fait, la mondialisation et les échanges entre le Nord et le Sud, à la suite de la colonisation, n’ont fait qu’accentuer l’énorme décalage, potentiellement explosif, entre, d’une part, une dénatalité quasi suicidaire de la civilisation occidentale – surtout de la vieille Europe, dévitalisée par son hédonisme inhérent à la « mcworldisation » et son individualisme anomique – et, de l’autre, une surnatalité du monde islamique, africain (sahelo-saharien) et, dans une certaine mesure, indien. Cette surnatalité hors contrôle alimente inévitablement à son tour des migrations massives de peuplement, elles-mêmes favorisées par les instances mondiales onusiennes, européennes et par la doxa droits-de-l’hommiste des élites occidentales mondialisées. Le contrôle des naissances n’a donc pas suivi la baisse desdits taux de mortalité et l’accroissement naturel a amorcé une expansion de plus en plus spectaculaire. Ceci dit, depuis un tiers de siècle, les spécialistes de la démographie – science ô combien complexe et parfois paradoxale – constatent que l’accroissement annuel s’est également en partie ralenti : 10 % en 1970, 9 % en 1980, 8 % en 1995, 7 % en 2000, 6,5 % en 2010 et 6 % en 2015 ; à moyen terme, la population du globe (hypothèse basse, voir infra) pourrait se stabiliser. Cependant, le phénomène de déclin relatif est à mettre exclusivement au crédit (ou au débit, si l’on préfère) des pays développés. Certaines nations « en voie de développement » ont vu récemment (voir supra) leur taux de fécondité diminuer légèrement mais cette transition démographique reste encore modeste, eu égard à la chute brutale de leurs taux de mortalité, et elle concerne bien plus l’Asie et l’Amérique latine que l’Afrique et le monde islamique... D’une manière générale, l’évolution démographique résulte arithmétiquement du solde entre accroissement naturel et migrations. Les chiffres liés à ces dernières (voir infra) incitent à la prudence quant aux appréciations des projections de la population mondiale proposées par les experts. Cependant, au-delà d’imprécisions incontournables, les données proposées notamment par l’ONU sont tout à fait parlantes 1 . Explosion de la population mondiale D’après les prévisions des statistiques démographiques des Nations unies 2 comme d’après celles de l’Institut national d’études démographiques 3 , la population mondiale devrait augmenter de 2 milliards de personnes au cours des trente prochaines années, passant de 7,7 milliards actuellement à 8,5 milliards en 2040, à 9,7 milliards entre 2050 et 2075, et elle pourrait atteindre un nombre proche de 11,2 milliards d’individus vers l’an 2100. Au cours de ce siècle, avec 2 milliards de personnes supplémentaires sur la planète en 40 ans, le monde sera confronté aux effets de la plus grande explosion démographique de l’histoire de l’humanité. Des milliards d’êtres humains dans le monde feront de plus en plus face à la soif, à la faim, et aux conflits qui en découlent. Le ministre indien de la Santé, Ghulam Nabi Azad, déclarait de ce fait en 2011 qu’une population mondiale de 7 milliards d’êtres humains « ne doit pas nous réjouir mais nous inquiéter ». Il est clair que pour nombre d’analystes, si nous ne parvenons pas à désamorcer la bombe démographique, nous ferons face à un avenir de pauvreté croissante, de pénuries alimentaires, de conflits et de dégradation de l’environnement. Une véritable bombe à retardement. Plus de bouches à nourrir et les changements alimentaires impliqueront : un doublement de la production agricole en quatre décennies, une augmentation de 30 % de la consommation d’eau d’ici 2030, et au milieu du siècle, des logements urbains pour 3 autres milliards de personnes. À cela s’ajoute le besoin d’énergie pour soutenir la croissance économique dans les pays post-industriels, industriels et nouvellement industrialisés, en tenant compte d’une demande qui doublera d’ici 2050. Part dans la population mondiale (%) et par zone géographique 19501970199020102017 Europe21,717,813,510,69,8 Asie55,357,760,460,259,6 Amériques13,514,113,713,613,5 Afrique9,09,911,915,116,6 Océanie0,50,50,50,50,5 Le déséquilibre démographique international Face à l’hiver démographique européen, le monde doit faire face à l’explosion démographique africaine. Pas de juste milieu. D’un point de vue géopolitique, la démographie peut avoir des effets déstabilisateurs ou engendrer des changements de rapport de force entre les États. La taille démographique peut donc avoir un impact direct sur le poids politique des États et parfois en termes de violences et même de guerre. « La grande majorité des guerres civiles depuis les années 1970 sont intervenues dans les pays connaissant des croissances démographiques importantes. Les cas de l’Irlande du Nord, du Sri Lanka, du Liban, de l’Algérie, de la Tchétchénie, du Kosovo, du Rwanda, du Congo, pour citer quelques exemples. Plusieurs des révoltes arabes (Tunisie, Yémen, Maroc, Libye, Syrie, Égypte) sont intervenues dans des pays connaissant la même situation 4 . » Dans les années 1970, la forte croissance de la population musulmane au Liban avait conduit l’élite maronite à adopter des réactions défensives, tandis que l’afflux massif de réfugiés palestiniens (à la surnatalité islamique) contribua à la déstabilisation du pays. Par ailleurs, lorsqu’une très grande partie de la population est jeune, surtout en pays pauvres, cela crée une opportunité pour des groupes terroristes, des milices ou des organisations criminelles qui disposent ainsi d’une importante ressource humaine facile à soudoyer et susceptible d’accroître leurs activités. Les disparités de l’accroissement naturel sont, par définition, le reflet de celles que l’on peut noter au chapitre des taux de natalité et à celui des taux de mortalité. Là encore, les chiffres publiés par l’ONU s’avèrent tout à fait édifiants. Les taux de natalité varient en effet (chiffres de 2018) de 49,6 ‰ au Niger à 8,10 ‰ au Japon, donc d’un rapport de quasiment 1 à 6 ! La Iiste des dix premiers États du globe souligne de manière criante le rôle du natalisme et de ses causes sociétales dans des pays pauvres où, c’est le moins que l’on puisse dire, la contraception est loin d’être entrée dans les mœurs. Ainsi, plus de la moitié de la croissance démographique dans le monde d’ici à 2050 aura lieu sur le continent africain avec la population d’Afrique subsaharienne, qui devrait doubler d’ici là. On y constate ainsi des taux de natalité par femme extrêmement élevés, le record étant détenu par le Niger, avec 7,4 entre 2010 et 2015, suivi par la Somalie (6,6), la RDC (6,4), l’Angola et le Burundi (6,0), l’Ouganda (5,9) et le Nigeria (5,7). L’Afrique devrait capter 52 % de la croissance démographique mondiale d’ici 2050 (soit 1,05 milliard d’habitants supplémentaires 5 ). L’Inde devrait dépasser la Chine et devenir le pays le plus peuplé du monde en 2022. Le Nigeria devrait voir sa population doubler par rapport à aujourd’hui pour atteindre environ 410 millions d’habitants en 2050 et devenir le 3 e pays le plus peuplé du monde 6 . Cela créera une pression considérable pour l’augmentation de la production alimentaire nationale, ainsi que pour l’eau et pour les sources d’énergie. Combinées aux tensions sociales et politiques résultant d’une urbanisation incontrôlée et d’une expansion dramatique des bidonvilles de banlieue, cela pourrait donner lieu à des conflits internes et frontaliers, déstabilisant de ce fait les routes du commerce international et conduisant à des migrations massives de zones de conflits vers des régions plus stables, comme l’Europe, avec les problèmes socio-économiques et civilisationnels que l’on imagine. L’hiver démographique des Occidentaux et d’une partie de l’Asie ? « L’hiver démographique » est un terme certes fort, mais loin d’être irréaliste. Il a été introduit par Michel Schooyans, professeur à l’Université catholique de Louvain, pour décrire le vieillissement ou l’augmentation de l’âge moyen de la population, principalement en Europe et au Japon. Michel Rocard, à l’issue de la conférence dite « famille », du 20 janvier 1989, a quant à lui déclaré : « La plupart des États d’Europe occidentale sont prédisposés à se suicider, un suicide démographique 7 . » On sait qu’un pays doit théoriquement maintenir un taux de natalité de 2,1 enfants par femme pour remplacer sa population actuelle. Cependant, en Europe, le taux de natalité est en moyenne de 1,3 et l’on estime que d’ici 2030, l’Europe aura un déficit de 20 millions d’habitants. Dans le même temps, la Russie devrait perdre un tiers de sa population actuelle d’ici 2050. De nombreux pays n’ont pas assez de jeunes pour renouveler leur population et ainsi faire face au fardeau économique du vieillissement. En Italie par exemple, de 2008 à 2019, les naissances sont passées de 576 000 à 420 084 8 par an. Depuis 2007, le bilan naturel est négatif : la moitié des femmes en âge de procréer n’a même pas d’enfants. Certaines des régions les plus riches de la planète – notamment le Japon, la Corée, l’Espagne, l’Italie et une grande partie de l’Europe de l’Est – perdent des habitants chaque année. « Nous sommes un pays mourant », déclarait ainsi en 2015 Beatrice Lorenzin, ministre italienne de la Santé. Les États européens, qui combinent à la fois la faiblesse quantitative de tels flux et un comportement démographique national malthusien, ont ainsi contribué à l’apparition concrète d’une quasi-« révolution » en se dotant désormais du statut de pays à « décroissance démographique absolue » : il s’agit notamment de l’Ukraine, de la Hongrie, de la Roumanie, ( – 0,4 %), de la Croatie, de la Biélorussie ( – 0,2 %), de la Lettonie, de la Serbie et de la Bulgarie ( – 0,1 %), toutes anciennes démocraties populaires, auxquelles il faut ajouter, mais ce n’est plus guère une surprise, l’Allemagne et le Japon ( – 0,2 %). Ce phénomène – gravissime à moyen et long termes – ne semble pas préoccuper outre mesure les élites dirigeantes occidentales, excepté quelques populistes honnis, car elles comptent depuis des décennies sur l’immigration de peuplement de masse – malgré les problèmes socioculturels et sécuritaires associés – plutôt que d’adopter des politiques natalistes, considérées comme réactionnaires ou attentatoires aux acquis des femmes et des individus, cela alors même que tous les experts savent que l’immigration ne règle pas le problème du vieillissement, mais prive le Sud de ses élites, cadres, et ouvriers qualifiés, ainsi que nous le verrons plus bas. Russie, trop grande trop vide... La Russie est de loin le plus grand pays du monde, mais sa population est en déclin potentiel, à peine freinée par la politique démographique très généreuse mise en œuvre il y a dix ans et par une forte immigration issue des anciennes républiques soviétiques. Avec une superficie de dix-sept millions de kilomètres carrés, la Russie couvre 11,4 % des terres émergées de la planète, mais les 147 millions de personnes qui y habitent représentent moins de 2 % de la population mondiale. Son immensité signifie une abondance de ressources naturelles, mais la population clairsemée et inégale est aussi son talon d’Achille géopolitique, aggravée par le choc démographique causé par la chute du régime soviétique et par le détachement des nouvelles républiques de la Baltique, de l’Europe de l’Est et de l’Asie. Si l’on examine les indicateurs démographiques de la Russie, de 1950 à aujourd’hui, on observe que la population est passée de 103 millions en 1950 à 148 au début des années 1990, ralentissant progressivement ; elle est ensuite passée à 143 millions (avec une reprise ultérieure jusqu’à 147 millions aujourd’hui, notamment due à l’arrivée de migrants d’Asie centrale et de l’annexion de la Crimée en 2014). Depuis la chute de l’URSS, la baisse dramatique de la natalité s’est aggravée d’une augmentation de la mortalité due à la crise sociale et sanitaire, partiellement compensée par une immigration nette soutenue. L’indicateur conjoncturel de fécondité (ICF) russe, qui est à peine de 1,2 ou 1,3 enfant par femme au tournant du siècle – soit bien inférieur au minimum vital de 2,1 –, a été considéré par le gouvernement de Vladimir Poutine depuis les années 2000 comme un des pires dangers pour le pays sur les moyen et long termes. Le Président russe est conscient qu’une nation dotée du plus grand territoire au monde ne pourra pas longtemps le sécuriser et le contrôler sans un repeuplement nataliste face à des empires rivaux et des voisins revanchards comme la Chine ou les puissances islamiques. Il déclare ainsi régulièrement dans des discours : « un pays aussi vaste [que la Russie] devrait avoir au moins 500 millions d’habitants », et il a tenté avec des succès mitigés, depuis 2007, de lancer une politique nataliste. Celle-ci s’est traduite par une reprise (avec un pic de 1,7 en 2015) que beaucoup considèrent toutefois comme transitoire. Et l’immigration en provenance de Chine, vue comme une menace à long terme pour la Sibérie russe – jadis chinoise – encore modeste pour le moment, se fait sentir sur un territoire qui a besoin de main-d’œuvre, de technologie, de populations et d’investissements. La démographie, un facteur critique pour l’alimentation La préoccupation primordiale concernant l’avenir de l’alimentation et de l’agriculture est de savoir si les systèmes mondiaux seront en mesure de nourrir durablement l’humanité jusqu’à 2050 et au-delà. En effet, nourrir toute la population en 2050 représente un des défis majeurs futurs sachant que, selon l’OMS, 690 millions de personnes ont souffert de la faim en 2019 9 . Poussée par une mondialisation excessive, la demande mondiale de produits agricoles continue de croître sous l’effet des changements alimentaires, de la croissance démographique, de la hausse des revenus et de l’urbanisation accrue. L’amélioration des conditions de vie entraîne une consommation supplémentaire, voire une surconsommation et du gaspillage 10 , ce qui demande une hausse de la production, provoquant des dégâts collatéraux considérables, comme la dégradation des terres, la déforestation, la surexploitation des eaux souterraines, les émissions de gaz à effet de serre, l’utilisation excessive de pesticides ayant un impact non négligeable sur la population (comme la culture du soja au Brésil ou en Argentine), la perte de la biodiversité et la pollution des masses d’eau. Non seulement l’agriculture affecte l’environnement et contribue aux changements climatiques, mais c’est aussi l’un des secteurs les plus touchés... Comme expliqué par l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO 11 ), la croissance de la production agricole est freinée par la rareté accrue et la diminution de la qualité des terres et des ressources en eau, car évidemment, ce qui peut être produit dépendra de la disponibilité et de la productivité des ressources, et notamment de la terre et de l’eau. Ces ressources sont déjà sous pression et, bien que les progrès techniques aient permis d’accroître la productivité, ou du moins la croissance des rendements des cultures, ralentit. De plus, la perte et le gaspillage exercent une pression inutile sur les ressources en terres, en eau et en énergie le long de la chaîne de valeur alimentaire. Taux de natalité en naissance pour 1 000 habitants 12 Pays (plus haut)TauxPays (plus bas)Taux Niger46,1Monaco5,9 Tchad42,2Corée du Sud6,4 Somalie41,8Porto Rico6,7 Mali41,5Italie7,3 Congo (RDC)41,2Japon7,4 Angola40,7Espagne7,9 Burundi39,0Grèce8,1 Gambie38,5Bosnie-Herzégovine8,1 Ouganda38,1Portugal8,5 Burkina Faso et Nigeria37,9Finlande8,6 À l’exception de l’Afghanistan (et de son contexte géopolitique particulièrement spécifique), le « Top ten » des pays à très fort taux de natalité est monopolisé par l’Afrique subsaharienne. A contrario, la liste des dix derniers États du globe révèle l’omniprésence du monde occidental d’économie libérale et des anciennes démocraties populaires. On peut évoquer trois catégories de pays concernant la situation démographique : Les économies postindustrielles matures, à l’opposé des pays africains étudiés plus haut et de l’Inde, sont largement caractérisées par des populations stables ou en déclin. Par exemple, le nombre d’habitants de l’Union européenne devrait diminuer de 20 % d’ici 2100. Ce pourcentage pourrait être revu à la baisse si l’immigration augmente ou si l’on prend en compte la présence d’immigrés non naturalisés ou clandestins installés durablement et prévus dans l’UE d’ici à 2100. La proportion des 60 ans ou plus atteint aujourd’hui 13 %. Les populations d’une cinquantaine de pays vont décliner dans les années qui viennent, notamment en Europe orientale et en Asie de l’Est 13 . La réduction conséquente des jeunes générations aura diverses implications sur des aspects tels que l’assistance sociale, les soins de santé et la composition de la main-d’œuvre. Un cauchemar pour les systèmes de retraite et plus généralement pour le dynamisme économique et la croissance, qui est ralentie ou en récession si le taux est trop faible. Les économies en développement au dernier stade, actuellement caractérisées par des niveaux élevés d’industrialisation, connaîtront un ralentissement de la croissance démographique parallèlement à la croissance de la richesse nationale. Par exemple, en Asie, où vit déjà la moitié de la population mondiale, la croissance démographique n’augmentera que de 25 %, pour atteindre son apogée en 2065, avant de reculer de la même manière que certaines économies postindustrielles. Bien que modeste, la croissance démographique continue de cette région au cours des cinq prochaines décennies, associée aux niveaux élevés de revenu personnel et de croissance de la richesse, entraînera probablement des tensions géopolitiques entre certains pays sur les ressources naturelles, telles que les sources d’eau et les matières premières communes d’abord pour l’industrie. Les pays récemment en développement et les économies les moins avancées sur le point d’entrer dans la phase d’industrialisation. Une croissance démographique plus rapide, responsable de la majeure partie de l’augmentation mondiale jusqu’en 2075, sera la caractéristique clé de ces nations. L’Afrique est la principale région concernée, de nombreux pays de ce continent pouvant doubler ou tripler leur population d’ici 2050. Relativisons les chiffres catastrophiques Inutile de préciser que ces données (surtout les dernières) doivent être appréhendées avec beaucoup de prudence. « Le pire n’est jamais certain », et les défis attendus pourraient être relevés avec des techniques déjà connues et des solutions durables : l’application de méthodes d’ingénierie telles que la biotechnologie ; la mécanisation et l’automatisation accrues ; la réduction des déchets ; un système de stockage et de distribution amélioré puis une meilleure gestion de l’eau ; des ressources alimentaires suffisantes. De même, la consommation future peut être couverte par des améliorations dans la gestion des eaux souterraines, la collecte et le stockage des eaux pluviales, la réutilisation de l’eau et le dessalement. Par ailleurs, les chiffres alarmistes ne mettent pas en évidence les tendances démographiques régionales importantes et donc les disparités. Démographie et Inégalités Espérance de vie à la naissance (source : Banque mondiale, 2018) Pays Espérance de vie Pays Espérance de vie 1) Hong Kong84,9245) République centrafricaine 52,8 2) Japon84,2244) Lesotho53,7 3) Région de Macao (Chine) 84,1243) Tchad54,0 4) Suisse83,8242) Sierra Leone54,3 5) Espagne83,4241) Nigeria54,3 6) Italie83,3240) Somalie57,1 7) Singapour83,1239) Côte d’Ivoire57,4 8) Liechtenstein83,0238) Soudan du Sud57,6 9) Îles anglo-normandes82,9237) Guinée-Bissau58,0 10) Islande82,9236) Guinée équatoriale58,4 Quatre-vingt-cinq ans pour le Japon, 48 pour la Sierra Leone ou la Centre-Afrique ! Voilà sans doute la plus scandaleuse des inégalités dans le monde contemporain, en dépit des progrès de la médecine et de leur exportation à l’échelle de l’ensemble des pays dits « en voie de développement ». La mondialisation n’est pas la même pour tout le monde... Cette inégalité devant la mort apparaît aussi au plan qualitatif des causes principales de mortalité à l’échelle du globe, tel que le montrent des chiffres de l’OMS de 2015. 1) Maladies infectieuses : 29,7 % dont voies respiratoires 6,8 %, sida : 3,1 %, tuberculose : 2,4 %. 2) Cancers : 13 %. 3) Cardiopathies : 12,8 %. 4) Accidents cardio-vasculaires (AVC) : 10,8 %. 5) Sous-nutrition : 5,9 %. 6) Suicides : 1,6 %. Ce classement masque toutefois des différences flagrantes en changeant d’échelle : dans les pays du Nord, les cardiopathies apparaissent au premier rang (18,2, %) devant les AVC (12,8 %), les cancers (9,1 %), le diabète (4,2 %), les maladies neurologiques (4,1 %) et les accidents de la route (2,3 %). En revanche, pour l’ensemble des États du Sud, ce sont les maladies infectieuses (17,2 %) qui tiennent le haut du pavé, devant les maladies respiratoires stricto sensu (9,2 %), le sida (4,4 %), la tuberculose (3,2 %) ou le paludisme (2,6 %). Ces inégalités face aux causes de mortalité sont de toute évidence directement liées au contexte sociétal et à un encadrement médical plus ou moins dense. Songeons qu’en 2013 (source : OMS), on recensait 1 médecin pour 300 habitants pour l’ensemble des pays développés et 1 pour plus de 20 000 au sein du monde non développé... Dans ce contexte, il n’est guère surprenant que des maladies endémiques comme la fièvre jaune, la lèpre, la bilharziose, le paludisme perdurent, mais que réapparaissent des fléaux que l’on croyait définitivement éradiqués, comme la tuberculose. Au- delà de sa valeur symbolique et, à juste titre, très fortement médiatisée, le sida continue de faire des ravages, en particulier dans la zone intertropicale. Alors que le virus avait été repéré dans un premier temps dans les quartiers gays de San Francisco, cette infection s’est très vite répandue dans le monde. Certes, aujourd’hui, la situation s’est stabilisée au sein des pays « nantis ». En revanche, le fléau n’a pas été éradiqué, loin de là, dans les contrées défavorisées, et particulièrement sur le continent africain. Lors de la première grande conférence mondiale sur le sida, on a appris que sur 40 millions de personnes porteuses du VIH, 28 millions vivaient sur ce continent ! Et, en 2010 encore, d’après le rapport annuel de la Commission ONUSIDA, l’Afrique subsaharienne comptait plus des trois quarts des personnes contaminées. En 2017, la même commission citait le chiffre de 70 % ! Un fléau qui n’est toujours pas combattu de manière responsable ! 2/ Les migrations internationales « Si la démographie dicte le destin de l’histoire, les mouvements de population en sont le moteur. » Samuel Huntington L’évocation des « défis démographiques » ne peut, in fine, faire l’impasse sur un phénomène complémentaire : l’évolution des migrations internationales et leur ampleur récente. La surnatalité dans plusieurs régions du monde ne va cesser de favoriser toujours plus de migrations, dans le cadre d’une mondialisation des échanges et de la doxa sans-frontiériste des États providences occidentaux qui créent ainsi des appels d’air. Cela aura des conséquences majeures sur le volume des populations concentrées dans les villes et posera aussi des gros problèmes de gestion, de contrôle et d’intégration aux pays d’accueil des migrants, sans oublier les pays touchés par une hausse massive des flux de réfugiés de guerre (Liban, Jordanie, Turquie, notamment). Cet essor démographique est un sérieux défi, dont la nécessité d’intégrer ces populations dans le marché du travail et de leur fournir une éducation de qualité et des services de santé dont elles auront besoin pour être productives, mais que la crise et le chômage en Europe rendent de plus en plus difficiles. Les pays d’accueil sont d’ailleurs appelés de façon récurrente par les instances onusiennes et européennes (Pacte mondial sur les migrations des Nations unies – PMM – dit « pacte Marrakech » de décembre 2018 ; dépénalisation des migrations clandestines voulue par l’ONU et l’UE, etc.) à créer les infrastructures nécessaires pour soutenir l’emploi, le logement et la sécurité sociale des immigrés désirés ou non (illégaux, faux et vrais demandeurs d’asile, vrais ou faux mineurs non accompagnés, réfugiés économiques, migrants légaux, etc.). Or cet appel d’air, difficilement supportable pour les pays européens en crise économique et frappés par le chômage, ne peut pas ne pas créer des tensions sociales et politiques que la montée des populismes rend manifestes. Face aux répercussions négatives de la baisse de la natalité, qui frappe surtout l’Occident, le Japon, la Russie et la Chine, certains réclament des politiques publiques natalistes, mais les dirigeants et les élites d’Occident, inhibés par un vrai tabou démographique et culpabilisés par les groupes de pression malthusiens, woke et féministes radicaux, les présentent comme impossibles, inutiles ou inacceptables, en raison de l’obsession connue des totalitaires (notamment nazi-fascistes ou islamistes) de procréer en masse. Pour beaucoup, la solution au problème du déclin démographique serait donc d’importer massivement des populations étrangères pour combler le manque de jeunesse et payer les futures retraites. Cette idée, chère au Premier ministre canadien diversitaire, Justin Trudeau, implique l’acceptation du multiculturalisme, lequel peut poser des problèmes de compatibilité et donc d’antagonismes communautaires dès lors que, par principe, les élites multiculturalistes d’Occident se refusent de conduire une politique d’immigration culturellement compatible. La question de l’islamisation radicale des métropoles industrielles occidentales est à cet égard le révélateur le plus flagrant de cette bombe géocivilisationnelle à retardement. En 2018, les Nations unies estimaient qu’il y avait quelque 260 millions de migrants internationaux à travers le globe, soit 3,5 % de la population mondiale (une augmentation de plus de 40 % depuis le début de ce nouveau siècle). Bien sûr, il y a migrants et migrants, et si les médias font prioritairement allusion aux « réfugiés politiques » (et à leur sort généralement peu enviable), leur poids dans les données statistiques est faible : moins de 20 millions de réfugiés dans le monde, dont 15 millions en situation de guerre (voir supra). Les plus gros contingents d’immigrés concernent en réalité essentiellement les migrants économiques qui alimentent les flux du « sud vers le nord » (près de 120 millions) et du « sud vers le sud », moins souvent évoqués, bien que quantitativement comparables (110 millions). Toutefois, les États providences d’Europe de l’Ouest ont créé un tel appel d’air que nombre d’immigrés extra-européens choisissent le Vieux Continent en raison des droits et avantages accordés par principe aux non-citoyens, même illégaux, et que leurs propres pays d’origine n’offriront jamais, pas plus que les richissimes monarchies islamiques du Golfe. Ces dernières, bien que de même religion que nombre d’immigrés, ne connaissent pas la culpabilisation postcoloniale de l’Europe de l’Ouest et ne se sentent pas solidaires des masses afro-musulmanes, pas plus d’ailleurs que des démocraties non européennes comme le Japon ou la Corée du Sud, ou encore les pays ex-communistes d’Europe orientale. En 2018, la moitié des migrants internationaux à l’échelle mondiale est née en Asie, notamment dans le sous-continent indien, mais c’est l’Afrique qui présente les chiffres les plus élevés, avec 85 % de personnes originaires d’un autre État africain et, tout étant relatif, moins de 15 % pour ceux qui tentent, de manière parfois dramatique, d’atteindre l’Eldorado européen. Encore faut-il aussi distinguer, parmi les migrants économiques, deux grands types de profils : la masse des braceros dépourvus de toute qualification, les déshérités venant, dans un premier temps, se réfugier dans les banlieues de métropoles, puis tentant l’aventure vers les pays riches ; et les personnels qualifiés nourrissant le flux du célèbre « brain drain », un « exode des cerveaux » qui contribue au dynamisme des nations développées du Nord. Cette perte de compétences locales contribue en fait au non-développement des pays quittés par leurs propres forces vives. Cela a été notamment fortement dénoncé par le cardinal guinéen Robert Sarah, en Afrique ou par le dalaï-lama au niveau mondial. En septembre 2018, le prélat tubétain déclarait à Malmö, en Suède, que « l’Europe appartient aux Européens » et qu’à terme il était souhaitable que les réfugiés « retournent chez eux pour reconstruire leur propre pays 14 ». Quant au cardinal Sarah, il fustigeait en novembre 2019 une Europe qui prétendait pouvoir faire face au tsunami migratoire, refusant de voir que le bateau était déjà prêt à couler : « Ceci est irresponsable sur le plan économique : accueillir, ce n’est pas seulement laisser entrer les gens, c’est leur donner du travail, or comment offrir un travail aux nouveaux arrivants, alors qu’en 2020, 16 millions d’Européens sont au chômage ? Si finalement, les migrants obtiennent un travail, ce pourrait être au détriment des Européens eux-mêmes ; ou bien, au prix de conditions de travail déplorables. » Ainsi, cette migration massive pourrait même bien aboutir à l’établissement d’un « nouvel esclavage 15 », conclut-il. En investissant des sommes astronomiques dans l’accueil des migrants, y compris illégaux ou hostiles aux valeurs occidentales pluralistes, l’Europe crée donc un appel d’air, et se donne à voir comme un Eldorado qu’elle n’est plus, au lieu de régler les problèmes de pauvreté et de conflits en Afrique en aidant à son développement. L’idée de « plan Marshall pour l’Afrique 16 », notamment développée par l’expert international Me Jean-Michel Nogueroles, permettrait à sa population de ne pas avoir à émigrer. Tout l’argent dépensé dans les prestations sociales accordées aux migrants, notamment clandestins, en Europe pourrait en effet, s’il était investi dans une optique de développement durable, permettre à de nombreux habitants africains d’avoir, par exemple, accès à l’électricité ou à des services d’hygiène décents. L’autre problème, rarement évoqué, est que les pays d’origine supportent les dépenses considérables liées à l’éducation du futur migrant et n’en tirent aucun bénéfice, au contraire du pays d’accueil. Songeons, par exemple, que deux Prix Nobel américains sur cinq sont nés hors des États-Unis ! Mais si le phénomène du brain drain n’ignore pas les pays membres de l’Union européenne, ces derniers doivent surtout faire face aujourd’hui à l’accélération brutale des flux migratoires, notamment clandestins, en provenance du continent africain, via la mer Méditerranée. Près de 3,5 millions de personnes venues des pays pauvres ont immigré au sein de pays membres de l’UE en 2018, et 2 millions ont quitté l’un de ses États membres. En 2018, selon la Commission européenne, c’est l’Allemagne qui comptait le plus grand nombre de non-nationaux (8,8 millions) devant le Royaume-Uni (5,7), l’Italie (5,2), I’Espagne (4,6) et la France (4,2). « Préparez Venus viendra Mars... » On doit cette formule à Gaston Bouthoul, qui consacra dans son traité majeur un long chapitre aux dimensions démographiques des guerres. Selon lui, les États disposent en permanence de jeunes hommes dont l’économie peut se passer, et lorsque la natalité est incontrôlée et le surplus de jeunes trop important, la situation « démo- économique » devient « une structure explosive », la guerre nécessitant toujours la « consommation » ou le « sacrifice » de ce surplus d’hommes. Ils forment alors ce que Bouthoul appelle une « force perturbatrice 17 » utilisable pour la guerre ou les conquêtes. Certes, le raisonnement de Bouthoul, alors banal, choquerait les esprits politiquement corrects d’aujourd’hui, le thème de l’immigration ayant été accaparé par les mouvements populistes antimigrants et par l’extrême gauche immigrationniste, de sorte qu’aborder en sortant de cette polarisation manichéenne est peu aisé. Il est en effet devenu de bon ton de n’appréhender les phénomènes de l’immigration que de manière positive et victimaire. La polémologie, l’histoire des civilisations et la stratégie sont bien plus neutres et réalistes de ce point de vue, car tout comme la mondialisation, désoccultée dans ce livre, l’immigration peut être analysée comme un phénomène neutre qui peut tout autant apporter des richesses à un État et enrichir une société que créer des difficultés de coexistence et de cohérence civilisationnelle. Selon Bouthoul, la guerre revêtant un caractère pulsionnel de conquête et les pertes qu’elle engendre entraînant la mort d’individus jeunes, les flux de migrants (a fortiori issus de pays anciennement colonisés et travaillés par des visions revanchardes postcoloniales ou et antioccidentales, en l’occurrence islamistes) « peuvent être utilisés à l’expansion brusque, dont les deux formes classiques sont la migration en groupe et l’expédition guerrière 18 ». Certes, Bouthoul précise que la natalité ne constitue pas le facteur unique dans la genèse des guerres et que la guerre est le fruit de déséquilibres socio- économiques, mais il souligne que l’élément démographique s’ajoute de façon déterminante aux autres causes qu’est le rôle des « mentalités », des idéologies, de l’environnement culturel et, bien sûr, de l’intention des dirigeants d’exploiter les « structures explosives ». On songe, bien sûr, à l’islamisme radical. Le lien entre immigration, sécurité, démographie et géopolitique est donc évident. De ce point de vue, la combinaison du fait que l’Union européenne est entrée en phase de dépopulation depuis les années 2010 (sa population n’augmente que du fait de l’immigration extra-européenne) et que l’immigration familiale, illégale et d’asile est devenue difficilement contrôlable, aura des conséquences sociopolitiques et civilisationnelles sur les pays d’Europe les plus concernés. L’« Europe élargie » (donc en incluant les ex-républiques soviétiques hors Asie centrale) est dans le monde le seul ensemble géocivilisationnel qui va décliner d’ici à 2030-2040. À ce double phénomène d’immigration de peuplement (regroupement familial) et de dénatalité s’ajoutent les phénomènes de la hausse de la mortalité (alcoolisme, déclin des systèmes de santé, en Russie, en Europe orientale et méditerranéenne...) puis des difficultés d’intégration des communautés musulmanes subsahariennes, turques et maghrébines. Le malaise ressenti par les populations, exprimé par des votes dits « populistes », ne doit pas être sous- estimé ou simplement ignoré par principe pour ne « pas faire le jeu des extrêmes », car c’est justement le meilleur moyen d’attiser les réactions radicales, complotistes, et la défiance croissante envers les dirigeants en place qui omettent la question identitaire et démographique. Les réactions populaires en Italie, en Autriche, en Hongrie ou en Grèce face aux flots de réfugiés des années 2015-2017 entrent dans ce contexte hautement sismique tout comme l’inquiétant phénomène des abstentions électorales en Europe qui n’augurent rien de bon pour l’avenir des démocraties libérales. Les conséquences sociopolitiques et géocivilisationnelles de l’immigration Les partisans de la mondialisation heureuse et de l’ouverture par principe affirment que le phénomène migratoire est toujours une chance et est bon en soi. Pareille attitude ne tient pas compte du fait que l’immigration ne peut être perçue comme un simple remède pour régler le problème des retraites d’Européens inféconds (vision d’ailleurs assez méprisante envers les migrants), et qu’elle a forcément des conséquences sociales, sécuritaires et culturelles. Si nombre d’immigrés sont certes des travailleurs acharnés sans lesquels des filières comme, la restauration, l’hôtellerie, le bâtiment, ou même l’agriculture connaîtraient des difficultés de recrutement, en revanche, nombre d’entre ceux dont l’émigration est motivée par les aides sociales octroyées par les États providences européens sont quant à eux peu productifs. Ce problème n’est pas dû à l’immigration en elle-même, qui peut être fort positive lorsqu’elle est intégrée, assimilée, donc choisie et productive, mais au caractère non sélectif et de moins en moins choisie de la politique d’immigration en Europe, dominée, depuis l’arrêt officiel de l’immigration de travail en 1975, par le regroupement familial, les flux clandestins non désirés et les demandes d’asile largement détournées. Les coûts humains, économiques et sociétaux du traitement de la délinquance et des difficultés d’intégration qui résultent de cette non-politique d’immigration hors contrôle sont devenus exorbitants dans plusieurs pays européens, même si cela concerne surtout l’immigration postcoloniale issue d’Afrique noire et maghrébine et beaucoup moins l’immigration latino-américaine et surtout asiatique. Secundo, si l’objectif utilitaire des migrations n’avait pour but que de compenser la dénatalité des habitants « de souche » – ce qui n’est pas le cas – les flux nécessaires seraient bien plus massifs et donc ingérables, et par conséquent encore plus explosifs : selon les estimations des Nations unies et de l’Union européenne, onze millions de nouveaux migrants par an seraient nécessaires pour maintenir la population active européenne à l’horizon 2050, avec sur le long terme des dépenses sociales impossibles à financer (formation, éducation, intégration, sécurité, retraites et santé). La « fermeture des frontières » est certes illusoire, mais les pays européens pourraient mieux maîtriser les flux migratoires dans le cadre d’une immigration légale et choisie, faute de quoi les conflits identitaires autour de cette question risquent d’être un jour hors contrôle. Par ailleurs, présenter l’immigration extra-européenne comme une fatalité ou une « compensation » postcoloniale est irresponsable, quand on sait que le « surplus » de jeunes à absorber, selon les termes de Bouthoul, représentera pour l’Afrique au moins un milliard d’individus en plus dans trente ans. De plus, l’immigration de masse ne concerne pas seulement les plus pauvres des Africains, mais aussi des forces vives et intellectuelles qui vont manquer aux pays d’origine, ce qui empêchera une stabilisation et un développement du pays. En Italie, la fondation Farefuturo, qui a réalisé une étude sur les nouveaux flux migratoires depuis les années 1990, a observé que près de 80 % des demandeurs d’asile et plus de 60 % des migrants légaux bénéficiant des mesures de regroupement familial professent la foi musulmane (voir Michèle Tribalat, op. cit.), or face à un monde musulman « réislamisé » de façon ultraconservatrice (islamisme politique), les sociétés d’accueil européennes ne peuvent pas être étanchéisées par magie et ne peuvent pas éviter les conséquences prévisibles, à savoir hériter des problèmes des pays afro-musulmans : islamisme radical, djihadisme, sort peu enviable des femmes, polygamie, rapports problématiques à la laïcité (voir affaires Charlie Hebdo, Mila, etc.) et aux droits des minorités (judéophobie, christianophobie, athéophobie, condamnation à mort des apostats et des polythéistes dans la charia, etc.). Quelques chiffres qui parlent d’eux-mêmes D’après la Commission européenne, le nombre total de migrants – non éligibles au statut de réfugiés politiques – arrivés entre 2015 et 2020 sur son territoire s’élèverait à 2 millions 19 . Ce chiffre est vraisemblablement en dessous de la réalité, car rien qu’en France, sur la période du seul quinquennat, le nombre total d’immigrés (légaux ou illégaux) durablement installés et profitant de nombreuses aides – toujours plus coûteuses pour les collectivités publiques – avoisinerait les 2 millions de personnes, soit une moyenne de 350 000 à 400 000 personnes par an. Ce chiffre a notamment été avancé par le député européen et ex-ministre de l’Intérieur, Brice Hortefeux, qui a recoupé les données des ministères compétents et ceux de l’Insee 20 . Sur plusieurs décennies, le total accumulé s’apparente à une « immigration de peuplement » qui ne peut que contribuer à changer progressivement le tissu social et civilisationnel du pays, donc son identité nationale même, ce qui n’est pas un simple détail que les responsables politiques peuvent se permettre de négliger. En 2019, l’immigration due au regroupement familial (90 502 titres de séjour) ainsi que les titres accordés aux étudiants (90 336), quasiment équivalents, ont été les principales filières, suivies des titres accordés aux demandeurs d’asile, en augmentation (voir infra) – environ 36 275 demandes acceptées en 2019 et 24 118 en 2020. Les premiers pays d’origine de l’immigration (titres de séjour délivrés en 2019) étaient le Maroc, en tête, suivi de l’Algérie, de la Tunisie, de la Chine et de la Côte d’Ivoire. Curieusement, l’immigration dite « économique », officielle, donc désirée, ne représente qu’un peu plus de 13 % du nombre total de titres, soit 32 815. Enfin, environ 20 000 titres de séjour dans le cadre du « passeport talent » ont été délivrés la même année. De ce fait, si l’on additionne ces 255 000 entrées légales aux estimations d’entrées illégales précédemment évoquées, nous atteignons le nombre de 400 000 nouveaux immigrés par an, sachant que moins de 10 % des immigrés clandestins sont effectivement reconduits dans leur pays après des mesures d’expulsion, et que l’immigration clandestine tend à être dépénalisée dans les pays de l’UE. À ces centaines de milliers d’immigrés qui arrivent chaque année – et qui s’ajoutent à ceux précédemment arrivés puisque la plupart restent sur le territoire français –, il faut additionner le nombre de naturalisés, soit 80 000 personnes en 2018, selon le ministère de l’Intérieur. Spécialiste des questions migratoires, la démographe française Michèle Tribalat, directeur de recherche à l’Ined, apporte quelques précisions assez difficilement réfutables sur les chiffres liés au nombre d’étrangers et de Français issus de l’immigration. Sachant que la population d’origine étrangère, dans la statistique publique, désigne « l’ensemble formé par les immigrés (personnes nées à l’étranger, qu’elles aient encore une nationalité étrangère ou qu’elles soient devenues françaises depuis leur arrivée en France) et les personnes nées en France d’au moins un parent immigré », elle rappelle que, selon les derniers chiffres connus de l’Insee (issus de l’enquête Emploi et de l’enquête annuelle de recensement, 2015), 20,1 % des Français de France métropolitaine seraient d’origine partielle ou pleinement étrangère, un taux qui monte à 42,1 % en région francilienne pour les jeunes de moins de 18 ans. Avec Bernard Aubry, Tribalat a mené nombre d’enquêtes détaillées sur ces sujets, et les deux chercheurs en ont conclu que depuis 2015, 1,3 million de jeunes en Île-de-France seraient issus de l’immigration 21 . D’une manière générale, d’après les chiffres de l’Ofii (l’Office français de l’immigration et de l’intégration), la France compterait environ 10 % d’immigrés actuellement, bien loin des 6,5 % souvent cités. Toutefois, d’après la démographe Michèle Tribalat, 20 millions de citoyens français seraient en fait d’origine étrangère (au moins un parent né à l’étranger et non français ou fils de parents non français nés à l’étranger), soit 4 fois plus qu’il y a une vingtaine d’années. Cette augmentation continue – excepté durant la première année de la Covid – est en fait le résultat d’une combinaison de facteurs objectifs et subjectifs : 1/ la pression des lobbys et instances nationales et internationales qui poussent à ouvrir les frontières aux migrants – quels qu’ils soient – et à dépénaliser l’immigration illégale puis à accorder à ces derniers les mêmes droits et aides économiques que ceux normalement réservés aux citoyens autochtones et aux migrants réguliers ; 2/ le laxisme judiciaire qui bloque 90 % des expulsions de migrants illégaux et faux réfugiés ; 3/ le contournement croissant du droit d’asile ; 4/ le refus d’une immigration choisie et la généralisation du droit du sol, du regroupement familial et de l’accueil des demandeurs d’asile, souvent faux, au détriment d’une immigration économique ciblée et concertée. Le droit d’asile, principal prétexte à la migration clandestine Dans un entretien accordé au Figaro, Michèle Tribalat estimait l’immigration illégale à partir de « recoupements de chiffres (interpellations, placements en centre de rétention, aide médicale d’État, déboutés du droit d’asile) à 200 000 à 400 000 personnes ». Quant à l’ex-ministre de l’Intérieur, Gérard Collomb, il avait évalué, fin 2017, le nombre total d’étrangers en situation irrégulière présents sur le territoire français à 300 000. Cette estimation – minimaliste –, basée sur des statistiques de l’Insee et sur le nombre de bénéficiaires de l’AME (aide médicale d’État), n’est cependant pas suffisante, puisqu’elle ne tient pas compte de l’ensemble de la population étrangère en situation d’irrégularité en France dont une partie ne se déclare pas à l’AME. Depuis les années 2000, la moyenne des arrivées de clandestins se situant autour de 80 000 à 140 000 par an, le nombre cumulé d’immigrés clandestins est en fait bien plus proche du million, sans même compter les centaines de milliers d’étrangers arrivés de façon illégale depuis les années 1970 qui ont été régularisés, et qui ont de ce fait disparu des statistiques concernant les illégaux et les étrangers. Patrick Stefanini, ancien secrétaire général du ministère de l’Immigration, donne au moins 900 000 étrangers séjournant illégalement sur le territoire français 22 . D’une manière générale, durant la dernière décennie, les arrivées illégales directes ont augmenté partout en Europe, particulièrement avec la « crise des migrants » ouverte en 2015. Les filières passent essentiellement par trois grandes zones aux frontières méridionales de l’UE : les côtes grecques de la mer Égée ; les îles du sud de l’Italie ; le détroit de Gibraltar et les enclaves espagnoles de Ceuta et Melilla, récemment prises d’assaut par des milliers de migrants sahéliens et maghrébins (mai 2021), suite à une brouille entre l’Espagne et le Maroc. Les immigrés ainsi entrés tendent ensuite à se disperser dans le continent. Depuis des décennies, le nombre de demandes est en constante progression : +7,3 % entre 2018 et 2021. La France est ainsi devenue le pays d’Europe le plus « attractif », avec 154 620 demandes enregistrées en 2019, contre environ 120 000 en Allemagne 23 . On sait par ailleurs que 85 % des demandeurs d’asile déboutés restent et ne sont presque jamais reconduits dans leurs pays. Selon le préfet François Lucas, « le doublement des demandes ces cinq dernières années révèle un détournement de la procédure, pas seulement une faillite du système Dublin. Il s’agit en effet de migrations économiques 24 ». En d’autres termes, il existe un « stock » de demandeurs d’asile déboutés, qui restent et ne sont pas reconduits. En 2015 déjà, la Cour des comptes annonçait que 96 % des déboutés du droit d’asile resteraient sur le territoire français. Toutefois, on notera qu’à la suite de la crise sanitaire, les chiffres de demandes d’asile et en général de l’immigration ont connu un ralentissement relatif et prévisible en Europe, avec une baisse de 33 % en 2020. En France, quelque 95 600 demandes d’asile, mineurs inclus, ont été introduites à l’Ofpra, soit une baisse de 28 % par rapport à 2019. Parmi ces demandes, 86 620 étaient des premières candidatures et 8 830 des réexamens. Précisons que ce chiffre, tout de même impressionnant malgré la crise sanitaire et son lot de mesures de confinements et restrictions des voyages, n’inclut pas les demandes enregistrées en préfecture et placées en procédure dite « Dublin » sous prétexte que la France n’est pas responsable de leur examen, et dont l’Ofpra ne peut légalement être saisi. En 2020 et 2021, les principaux pays de provenance des primo-demandeurs d’asile demeurent l’Afghanistan, la Guinée, le Bangladesh, la Côte d’Ivoire, le Nigeria, la Turquie et le Pakistan, les demandes de ressortissants de Géorgie et d’Albanie ayant commencé à diminuer 25 . L’ensemble des pays africains représenterait 40 % des requêtes. L’Ofpra notait ainsi « une progression notable de la demande en provenance de pays d’Afrique de l’Ouest comme la Côte d’Ivoire et la Guinée ». Quant aux Syriens, dont les médias et lobbys promigrants parlent en permanence pour légitimer, par leur drame, la cause des demandeurs d’asile arrivés illégalement – très souvent de faux réfugiés politiques –, ils sont très peu représentés. Selon la même source, sur ces 138 420 demandes d’asile, seulement 33 330 ont été acceptées, ce qui signifie qu’environ 100 000 personnes se sont vu refuser ce droit, sans toutefois jamais quitter la France, et ce malgré les notifications d’obligation de quitter le territoire. Le tabou du coût de l’immigration Quant au coût annuel de l’immigration, dans le contexte d’un État providence très généreux en France – à savoir la différence entre ce qu’elle rapporte et ce qu’elle coûte –, certains experts l’évaluent – avec chacun des critères fort différents – entre 5 et 70 milliards d’euros. Ces chiffres les plus maximalistes, étonnants et vivement contestés par les partisans de l’immigration de masse, sont pourtant le fruit d’études qui ajoutent aux coûts « classiques » des migrations illégales les dépenses inhérentes, directes et indirectes, aux aides (logement, santé, justice...) et au traitement social et sécuritaire de l’immigration. Pour les estimations les plus minimalistes, un rapport de la Cour des comptes publié le 5 mai 2020 a évalué les coûts « de l’entrée, du séjour et du premier accueil des personnes étrangères en France » pour l’année 2019 à 6,57 milliards d’euros, un montant qui n’a pas pris en compte le coût des dépenses sociales (assurance maladie, retraites et aides sociales de droit commun en général, type RSA ou APL), de celles liées à la justice et à la politique de sécurité, et la prise en charge des mineurs isolés par les collectivités locales. Ainsi, le 22 janvier 2020, le comité d’évaluation et de contrôle des politiques publiques de l’Assemblée nationale a souligné, dans un rapport relatif à l’évaluation des coûts et bénéfices de l’immigration en matière économique et sociale, que le document de la Cour des comptes a sous-évalué les coûts de scolarisation des enfants immigrés par le ministère de l’Éducation nationale 26 . Par exemple, si l’Éducation nationale avance le chiffre de 161 millions d’euros pour les coûts de l’immigration dans son domaine d’action publique, le ministère de l’Enseignement supérieur évoque la somme de 2,2 milliards d’euros, correspondant aux 10,6 % d’étudiants étrangers du secteur public. Quant aux coûts inhérents à la police aux frontières et ceux des infractions pénales spécifiques relevant du séjour sur le territoire (exemple : refus d’exécuter une mesure d’éloignement), la police nationale a avancé le chiffre de 1,2 milliard d’euros en 2020 pour ce seul poste. De la même manière, une étude publiée par le Centre d’études prospectives et d’informations internationales (Cepii, service de recherche économique rattaché au Premier ministre 27 ), intitulée L’Impact budgétaire de 30 ans d’immigration en France, avait déjà estimé en 2011 le coût de l’immigration à 1,64 point de pourcentage de PIB, soit, ramené à l’année 2019, l’équivalent de 40 milliards d’euros, sachant que le phénomène migratoire n’a cessé de s’accroître depuis dix ans. Et cette étude n’est pas la plus maximaliste puisqu’elle exclut par principe les coûts de l’immigration irrégulière, pourtant en hausse depuis des décennies et surtout depuis 2015. Ces coûts sont évalués à 1 milliard annuel pour l’AME et 2 milliards par an pour les 50 000 mineurs non accompagnés (MNA), chiffres confirmés par un rapport du Sénat en 2021 28 . La Cour des comptes déplore d’ailleurs le détournement des demandes d’asile qui expliquerait un tiers de la progression des coûts ainsi que l’aide médicale d’État (un cinquième). Les magistrats précisent que ces dépenses exorbitantes ne peuvent qu’augmenter à l’avenir de façon quasi mécanique en raison de la progression constante (hors année de la Covid 2021) de l’immigration légale de peuplement (regroupement familial) et de l’immigration illégale, favorisées par les appels d’air inhérents au droit du sol, à la dépénalisation de la migration clandestine, au regroupement familial, et aux aides d’État indiscriminées, qui ne connaissent aucune restriction sensible. Sur un quinquennat et sur ces bases, certains ont chiffré le montant à plus de 50 milliards d’euros de dépenses publiques liées à l’immigration au total. Pause migratoire ? C’est en s’appuyant sur les chiffres évoqués plus haut qu’un certain nombre de responsables politiques – et pas seulement des « populistes » ou des partis accusés de « xénophobie » – se sont déclarés ces dernières années favorables à la suppression du droit du sol, principal vecteur de naturalisation de migrants qui ne sont pas toujours intégrables, et dont une part importante est issue de l’immigration illégale et a été régularisée en masse par la suite (« circulaire Valls » du 28 novembre 2012). Ainsi, la présidente de la région Île-de-France, Valérie Pécresse, déclarait : « L’acquisition de la nationalité française ne doit plus être automatique. Il faut la demander, la désirer, pas l’obtenir à 18 ans dans une pochette-surprise », ajoutant : « La France, ça doit être un choix. » D’autres préconisent de supprimer l’AME ou de la réserver à la prise en charge des maladies les plus graves, sachant qu’elle coûte un milliard chaque année aux contribuables et qu’elle contribue à faire de la France un pays attractif aux yeux d’immigrés clandestins attirés « non pas par le plein-emploi mais par la générosité de notre politique sociale », poursuivait l’ex-ministre. Dans les années 1960, le célèbre démographe Alfred Sauvy avertissait que le phénomène de l’immigration de masse extracommunautaire aurait des conséquences civilisationnelles, sociales, économiques et sécuritaires majeures, probablement hautement sismiques si des mesures de sélection et de contrôle n’étaient pas prises. Soixante années plus tard, à l’heure des débats houleux sur les quartiers de non-droit et de non-France, de l’indigénisme francophobe et de l’islamisme occidentalophobe qui progressent au sein d’une partie de l’immigration désassimilée et abandonnée par l’État laxiste aux lois des quartiers et des imams intégristes, un sondage de l’institut Ipsos a révélé que 60 % des Français percevraient désormais les migrants comme une « menace 29 », et 45 % estiment que ces derniers les priveraient de services sociaux. Bref, les immigrés intégrés et l’immigration choisie paient en termes d’image et de perception négative les dérives de l’immigration non choisie, illégale ou/et non intégrée. Le général de Gaulle disait qu’il était « simple d’assimiler un individu, mais difficile d’assimiler un peuple ». Or si la politique migratoire européenne et française n’est pas réformée dans le sens d’une assimilation exigeante, ce sont bien des peuples – pour la plupart originaires de civilisations bien différentes – qu’il faudra intégrer de façon communautariste, l’assimilation se faisant de plus en plus difficilement pour des raisons à la fois de déterminisme culturel et confessionnel, de nombre et en vertu d’une mondialisation qui permet aux fanatiques du monde islamique d’embrigader à distance des communautés musulmanes d’Occident. En Europe et en France, une pause migratoire, comme cela fut le cas aux États-Unis entre 1920 et 1965, suite à la dépression de la fin des années 1920 et 1930, serait une voie raisonnable qui permettrait de consolider l’intégration des immigrés déjà arrivés en masse et même d’assimiler ceux qui sont arrivés de longue date ainsi que leurs descendants, trop souvent travaillés par des puissances étrangères étatiques ou transnationales, notamment islamistes, opposées à l’intégration de leurs coreligionnaires aux mœurs « impies ». Les propos de l’ancien roi du Maroc, Hassan II, pourtant francophile, confirment rétrospectivement ce constat d’une intégration compliquée d’un trop grand nombre de personnes venues d’une civilisation arabo-islamique, parfois antinomique, et donc de l’impératif d’investir plus dans l’assimilation : « L’intégration est possible entre Européens. La trame est la même, c’est le même continent. Ils [les Marocains] ne seront jamais 100 % français, ils seront de mauvais français, je peux vous l’assurer 30 . » On se souvient de Michel Rocard et sa fameuse formule : « Nous ne pouvons pas héberger toute la misère du monde. La France doit rester ce qu’elle est, une terre d’asile politique [...] mais pas plus », avait lancé l’ancien Premier ministre en 1989. Ou de Georges Marchais, secrétaire général du PCF (Parti communiste français) dans les années 1980, farouchement opposé à l’immigration de masse qui déclarait (déjà) : « Nous posons le problème de l’immigration. » Ces deux figures de la gauche alertaient déjà les risques d’une immigration non choisie. Ils n’étaient pourtant ni « fascistes » ni xénophobes... Une fois de plus, la démarche géopolitique montre que l’irénisme et le manichéisme moralisateur ne permettent ni de formuler un jugement froid, ni de prévoir les risques et menaces à venir ou en cours de façon lucide, car l’idéologisation et le tout émotionnel qui domine aujourd’hui nos élites politiques au diapason des modes médiatiques sont l’ennemie de l’analyse. 1. Jacques Soppelsa, op. cit., supra. 2. Voir site des Nations unies : www.un.org/fr/sections/issues-depth/population/index.html 3. Communiqué de presse, Institut national d’études démographiques, 17 juin 2019. 4. « Le défi démographique : mythes et réalités », Institut Montaigne, juillet 2018. 5. Rapport des Nations unies, World Population Prospects 2019. 6. « Sous pression, le poids de la démographie mondiale », Magazine trimestriel du FMI, mars 2016. 7. Michel Schooyans. Le Crash démographique, Paris, Le Sarment-Fayard, 1999. 8. « Popolazione Italia (2001-2016) Grafici su dati ISTAT », Il Sole 24 ore, 29 novembre 2017. 9. Communiqué de presse de l’OMS, publié le 13 juillet 2020. Voir site de l’Organisation : www.who.int/fr 10. Chaque année, un tiers de la production alimentaire mondiale destinée à la consommation – environ 1,3 milliard de tonnes – est gaspillé. Les pays industrialisés et en développement gaspillent respectivement 670 millions et 630 millions de tonnes. 11. Rapport de l’Organisation des Nations unies pour l’alimentation et l’agriculture, The Future of Food and Agriculture, Alternatives Pathways to 2050, 2018. 12. Source : Banque mondiale, 2018, données téléchargeables sur le site de la Banque mondiale : donneesbanquesmondiales.org. 13. « Le défi démographique : mythes et réalités », art. cit. 14. « Migrants : pour le Dalaï-Lama, “l’Europe appartient aux Européens” », Le Parisien, 12 septembre 2018. 15. « Cardinal Sarah : “Ceux que vous accueillez doivent s’intégrer à votre culture” », InfoCatho, 19 avril 2019. 16. Voir Jean-Michel Nogueroles, « Pourquoi il faut un plan Marschall pour l’Afrique », Fild Fildmedia, 9 février 2021. 17. Gaston Bouthoul, Traité de polémologie. Sociologie des guerres, Paris, Payot, 1970, p. 115-120. 18. Frédéric Coste, « Bouthoul et la polémologie : l’étude des causes profondes de la guerre », Les Champs de Mars, février 2002, n o 12, p. 9-30. 19. L’Inspection générale des affaires sociales (Igas), l’Inspection générale de l’administration (IGA), l’Inspection générale de la justice (IGJ) et l’ADF évaluent d’ailleurs à 2 milliards d’euros le coût pour les départements par an et ils déplorent qu’au moins « une personne sur deux est évaluée comme majeure ». 20. L’immigration légale représentant 255 000 entrées par an, si l’on ajoute à ce chiffre les déboutés du droit d’asile (90 000) dont la majorité reste en France comme indiqué par la Cour des comptes, le chiffre annuel de 350 000 est plus réaliste. 21. Site internet de Michèle Tribalat : www.micheletribalat.fr/439632260. 22. Patrick Stefanini, Immigration. Ces réalités qu’on nous cache, Paris, Robert Laffont, 2020. 23. Cour des comptes, « L’entrée, le séjour et le premier accueil des personnes étrangères », 2020, p. 150. 24. Ministère de l’Intérieur, « L’essentiel de l’immigration », 21 janvier 2020, www.immigration.interieur.gouv.fr/Info-ressources/Etudes-et- statistiques/Statistiques/Essentiel-de-l-immigration/Chiffres-cles. 25. Ministère de l’Intérieur, « Les principales données de l’immigration », 21 janvier 2021. 26. Qui n’impute à la politique d’immigration que le montant des dispositifs fléchés sur des enfants allophones ou issus de familles itinérantes et de voyageurs (0,5 % des effectifs). 27. Cepii, L’Impact budgétaire de 30 ans d’immigration en France : (I) une approche comptable , document de travail. 28. Marie-Cécile Renault, « Près d’un milliard d’euros pour l’accès aux soins des étrangers en situation irrégulière en 2021 », Le Figaro, 28 septembre 2020. 29. « La France en tête des pays en attente d’un leader “fort” pour “casser les règles” », Ipsos, 13 septembre 2019. 30. Interview d’Hassan II au palais royal de Rabat. CHAPITRE XII Puissances multinationales et digitales face aux États souverains « De nombreuses rivalités stratégiques sont en train de passer du domaine matériel à celui de l’information dans la collecte et le traitement des données, la pénétration des réseaux et la manipulation psychologique. Faute de définition d’un minimum de règles de conduite internationales, la dynamique interne du système provoquera une crise 1 . » Henry Kissinger Les multinationales digitales occupent une place à part sur l’échiquier géopolitique mondial de par leur taille, leur influence, et leur omniprésence dans des sociétés structurées par les technologies de l’information. Forts de ce constat, certains, comme le politologue Bertrand Badie, affirment que les multinationales, les ONG et organisations internationales puis les mouvements identitaires et religieux transnationaux auraient détrôné l’État souverain qui ne serait plus la seule unité de base du système international 2 . Ce processus, qu’il appelle le « retournement du monde », ébranlerait de façon inédite la puissance étatique et provoquerait une crise encore plus large de l’autorité, l’État-nation n’étant plus capable d’établir les normes faisant consensus. Nous estimons, quant à nous, que si des entraves croissantes pèsent en effet sur les prérogatives traditionnelles des États, les acteurs non étatiques « mondialisés » n’affaiblissent que les États les plus faibles ou démissionnaires de leur souveraineté. Du point de vue géopolitique autant que juridique, l’État-nation souverain demeure le décideur en premier et dernier ressort : il peut se retirer de n’importe quel traité international, poser, s’il le veut, des règles strictes et des limites aux ONG, aux multinationales et aux réseaux sociaux, et il est donc capable de rester encore longtemps l’unité dominante de l’ordre mondial. Notre postulat est que la mondialisation marchande, indéniable, certes, n’est pas un acteur mais un phénomène neutre, un processus économique, digital, informationnel, et que ses outils technologiques peuvent autant être des opportunités que des contraintes pour les États qui peuvent en tirer parti et même accroître leur puissance et leur souveraineté en les utilisant à leur avantage (Chine, États-Unis). Quant aux firmes multinationales (FMN), aux ONG et aux organisations internationales, elles ne peuvent pas avoir le dernier mot en tant qu’acteurs face à des États puissants ou/et volontaristes (États-Unis, Chine, Russie, Inde, Brésil, Japon, Turquie, etc.). Du point de vue réaliste, la mondialisation marchande et digitale peut être vue comme un immense théâtre de compétition entre nations, et donc d’hyperconcurrence que les « meilleurs » et les plus offensifs sauront utiliser et canaliser à leur profit... La puissance des firmes multinationales Ceci dit, il est indéniable qu’avec la mondialisation marchande et les délocalisations, associées à l’économie virtuelle et digitale sans frontières, les relations internationales, loin de se limiter aux aspects politiques et diplomatiques, sont concernées par les réalités économiques et financières, au point que pour certains, les grandes FMN 3 , fruit de l’expansion du capitalisme international, sont considérées comme de nouveaux acteurs à part entière de la géopolitique et de la nouvelle diplomatie commerciale. Jusqu’à présent, ces firmes n’ont pas fait l’objet de réglementations internationales et nationales à même de limiter leur pouvoir pourtant souvent concurrent de celui des États. Or ceux qui ne s’accommodent pas de cela n’ont pas dit leur dernier mot, même s’ils ont souvent un train de retard... Aujourd’hui, un peu moins de la moitié des 100 premières puissances économiques mondiales sont des États (sur 197 reconnus et répertoriés par les Nations unies au total), l’autre moitié est représentée par des entreprises multinationales. Cela signifie que ces dernières sont bien plus puissantes que de très nombreux États dans le monde. Un seul exemple suffit à prendre la mesure incroyable de ce pouvoir non étatique : l’enseigne de supermarché américaine Walmart, la plus grosse entreprise au monde en termes d’effectifs, qui emploie 2,2 millions de personnes (soit l’équivalent de la population parisienne), réalise un chiffre d’affaires d’environ 524 milliards de dollars, selon le classement de Forbes 4 , c’est-à-dire autant que le PIB de l’Argentine ou de Taiwan... Il existe actuellement dans le monde quelque 60 000 FMN, qui contrôlent plus de 500 000 filiales, responsables de la moitié des échanges commerciaux internationaux, en particulier du fait de l’importance du commerce intrafirme (entre les filiales d’une même entreprise). Grâce à leur forte présence virtuelle, certaines peuvent opérer partout dans le monde sans aucun ancrage national ; les exemples de Netflix ou Amazon étant les plus évidents. En ce qui concerne la France, en 2017, les firmes multinationales représentaient 1 % des entreprises des secteurs principalement marchands non agricoles et non financiers, mais occupaient 49 % des salariés et généraient 57 % de la valeur ajoutée brute produite sur le territoire français. Par conséquent, beaucoup d’emplois en France se retrouvent sous contrôle étranger : 2,2 millions en 2017 contre 1,8 en 2016, soit 400 000 de plus en une seule année, principalement dans des entreprises de taille intermédiaire. Ces entreprises sont elles-mêmes contrôlées par des multinationales étrangères d’origine américaine (533 000 emplois) et allemande (324 000 5 ) et pour 16 800 entreprises, ces emplois concernent en majorité l’industrie. Le développement des FMN et de leur activité est à la fois la conséquence et l’un des moteurs essentiels de la mondialisation, tandis que, grâce au numérique, ces firmes transforment le monde et, avec lui, le commerce, dont elles constituent aujourd’hui le vecteur principal par la rapidité des transactions et l’échange d’informations instantané. Avec la croissance du commerce électronique, qui ne nécessite aucune présence physique d’entreprises sur le marché d’exportation, les FMN échappent très souvent aux taxes, et leur activité commerciale est rarement encadrée par des règles multilatérales. En outre, la régulation des pratiques commerciales est moins du ressort de la législation publique instaurée par les États (soumis au vote démocratique) que de celui des firmes internationales privées qui instaurent ainsi leur propre ordre parallèle. Qu’il s’agisse des FMN liées à la finance, à l’industrie pétrolière, à l’automobile, à l’énergie ou aux autres secteurs dont les domaines digitaux, leur poids économique est tel qu’elles concentrent puis contrôlent la majorité des marchés et de l’emploi dans certains secteurs. Elles ont la capacité d’influencer les politiques fiscales et sociales des États. La mise en place des tribunaux d’arbitrage internationaux permet par exemple aux multinationales de poursuivre un État en justice dans le cas où celui-ci mettrait en place une loi qui réduirait ses prérogatives ou profits. Les FNM peuvent ainsi faire condamner les États à verser des dédommagements très élevés. Que les pays concernés soient de grandes puissances ou des pays moins avancés ou en voie de développement, ils subissent presque tous (excepté peut-être des régimes dictatoriaux et nationalistes comme la Chine) cette « justice » internationale non étatique et non issue d’accords entre États souverains, non pas en raison d’une fatalité mais d’un habitus et d’une abdication en réalité réversibles. Les prérogatives exorbitantes du droit public impactent les droits les plus fondamentaux des citoyens, à commencer par la santé, les droits salariaux, mais aussi l’environnement ou les droits de l’homme. Un des points de crispation des traités de libre-échange récemment portés par les États-Unis et l’Union européenne comme le Transatlantic Trade and Investment Partnership 6 (TTIP) concerne d’ailleurs l’introduction du dispositif dit « d’arbitrage privé », présent dans la majorité des accords commerciaux internationaux. Ce dispositif est censé garantir une juste impartialité aux investisseurs étrangers afin qu’ils puissent se défendre contre les abus éventuels des États ou contre des législations trop contraignantes pour eux. Or les arbitres de ces tribunaux ne sont pas des juges mais des avocats d’affaires qui peuvent être à tour de rôle arbitres, défenseurs d’un État ou d’une entreprise. Issus d’une élite mondialisée très restreinte, ces avocats donnent logiquement très souvent gain de cause aux investisseurs. Les entreprises multinationales peuvent donc attaquer un État pour un investissement qui n’a même pas eu lieu, juste pour le manque à gagner qu’une loi aurait empêché. C’est ainsi qu’en 2016, McDonald’s a réclamé 17,8 millions d’euros à la ville de Florence uniquement pour le fait de ne pas l’avoir laissé ouvrir un restaurant sur la place principale ! Les États – surtout ceux dirigés par des élites occidentales libertariennes qui ne luttent pas contre ces abus par parti pris – voient ainsi une logique économique s’imposer à eux au détriment des décisions de leur pouvoir législatif et de la souveraineté des peuples. Il est clair que les dédommagements obtenus par les multinationales au titre du « manque à gagner » cité précédemment peuvent léser les droits des citoyens du fait même de l’effet dissuasif direct de ces entités sur l’adoption de réglementations jugées trop protectrices des consommateurs et qui nuiraient aux intérêts financiers des FMN. Par exemple, un État qui ferait adopter une loi visant à éliminer un produit jugé nocif pour la santé peut être attaqué en justice par l’entreprise multinationale s’estimant lésée. Cela fonctionne également pour un permis d’exploitation de terres qui viendrait à être annulé par un gouvernement. Avec ces tribunaux d’arbitrage privé, les multinationales imposent leur volonté, ceci dans le plus grand secret. D’évidence, les États souverains et leurs dirigeants pourraient, s’il y avait une réelle volonté de reprendre le contrôle, combattre ce système qui menace leurs prérogatives régaliennes. Cependant, les liens d’intérêts entre grandes entreprises et gouvernements sont souvent forts, ces derniers étant désireux d’attirer les investissements étrangers dans leurs pays et ainsi motivés à signer des traités favorables aux multinationales. Cinquante-quatre pays ont ainsi adopté en 2019 107 mesures relatives à l’investissement étranger dont 76 % visant à libéraliser, promouvoir et faciliter les investissements 7 . Les multinationales sont souvent qualifiées de footloose, ou « jambes légères », car elles s’installent dans un pays, récupèrent des subventions et avantages, puis partent ailleurs dès que d’autres pays offrent des conditions encore plus attractives. Ces multinationales nomades sont de deux types : celles qui s’implantent dans un autre pays suivant des avantages comparatifs, leur objectif étant de créer une chaîne de valeur transfrontalière pour baisser les coûts ou accéder à des ressources spécifiques et à des capacités d’innovation d’un pays ou de mains-d’œuvre hautement qualifiées, puis celles qui cherchent le profit avant tout et dont la logique d’implantation est celle des portefeuilles de valeurs. Leurs actionnaires sont des entités institutionnelles, des fonds de pensions, des entreprises hedge funds, des fonds de spéculation, des fonds d’investissement et des private equity. Leur modèle de développement est le « capitalisme impatient » et footloose, selon lequel les investisseurs cherchent à obtenir des profits à très court terme, ce qui est aux antipodes du modèle européen qui s’appuie sur le développement des chaînes de valeur qui nécessitent beaucoup de patience. Les footloose prolifèrent partout, n’apportent pas toujours de création de valeurs et leur marketing agressif participe du fait que leurs produits ne sont ni utiles ni vertueux : Coca-Cola, qui nuit à la santé de millions de personnes et dont la popularité est fondée sur des publicités agressives surfant sur le soft power américain, couvre par exemple la quasi-totalité de la terre avec ses filiales locales si denses que la firme peut servir la grande distribution et les magasins de proximité du monde entier. L’idée est celle de l’impérialisme marchand : commercialiser des produits vides de sens et addictifs. Délocalisation, fiscalité avantageuse et comportements parfois criminels Afin de réduire les dépenses et d’augmenter les bénéfices, les FMN délocalisent leur production pour profiter des faibles coûts de main-d’œuvre et des normes sociales, environnementales et de sécurité très basses, voire parfois nulles, offertes par les pays en développement, en particulier ceux d’Asie du Sud-Est et d’Afrique. La chaîne de production de ces entreprises est aujourd’hui répartie entre de multiples unités là où la main-d’œuvre est la moins chère, ce qui crée dans le même temps du chômage dans les pays d’origine. Les stratégies de communication et de marketing se font à l’échelle mondiale et les profits sont localisés dans des paradis fiscaux afin de minimiser l’impôt. Les FMN en paient en effet bien moins que les firmes locales de plus petite envergure. Elles doivent, certes, composer avec les lois élaborées dans les États « hôtes », mais celles-ci varient fort d’un pays à un autre et sont plus ou moins strictes et respectées. Certains pays sont tellement conciliants qu’ils autorisent l’exploitation de leur main- d’œuvre dans des conditions inhumaines, offrant ainsi une quasi-impunité juridique pour des faits qui seraient gravement sanctionnés dans les États occidentaux d’origine. Les FMN essaient donc souvent, et avec succès, de saper le pouvoir des États qui peinent à adopter des lois et à s’entendre entre eux pour limiter leur influence. Grâce à leurs avantages fiscaux et à leurs moyens de pression économiques gigantesques, les FMN rachètent bon nombre d’entreprises locales pour mettre parfois tout un marché et un secteur sous leur coupe monopolistique. Leur puissance est telle qu’elles sont en mesure de déstabiliser des zones géopolitiques entières, voire de collaborer avec des États ou des organisations criminelles. Ces entreprises se font une forte concurrence à l’échelle internationale et tous les moyens – ou presque – semblent bons pour conquérir de nouvelles parts de marché 8 . De fait, leur influence financière, économique, politique et souvent même géopolitique, est impressionnante, et grâce à cette force financière et géoéconomique, les FMN ont toujours plus d’ambition pour se mesurer aux États, voire tenter de les dépasser dans certains domaines, ainsi qu’on l’observe de façon flagrante avec Tesla et le projet spatial de son P-DG, Elon Musk, qui a conçu et mis en service des lanceurs réutilisables sur sa fusée Falcon 9 (la plus puissante du monde). Une première dans l’histoire spatiale, puisque, outre le fait que ce domaine industriel est d’habitude une prérogative régalienne, ce projet n’avait jamais été réalisé par la Nasa, qui, après avoir mal vécu cette concurrence, a finalement composé et signé des contrats de partenariat avec Tesla. Récemment, le patron d’Amazon, Jeff Bezos, a lui aussi décidé de créer sa propre industrie spatiale. Les deux créateurs ont d’ailleurs comme projet de développer dans un futur proche le « tourisme spatial », signe des ambitions démesurées que peuvent poursuivre les dirigeants des plus puissantes entreprises du monde. Les Gafam en question... ou l’économie virtuelle à l’assaut du monde ancien Ceci nous amène à aborder le cas spécifique des multinationales du domaine digital, les fameuses Gafam (acronyme de Google, Apple, Facebook, Amazon et Microsoft), entreprises stars de la Silicon Valley californienne, qui ont envahi notre quotidien, influencent l’opinion dite « publique », et créent les nouveaux besoins des consommateurs rendus de plus en plus dépendants. Elles sont désormais capables de faire et défaire les rois mieux que les médias classiques. Elles constituent aussi une nuisance sécuritaire, étant donné la présence du crime organisé et des réseaux islamistes, extrémistes et terroristes sur leurs forums et sur le Net en général. Elles ont même fondé des succursales avec les Natu (Netflix, Airbnb, Tesla et Uber). Ces entreprises ont su renouveler au XXI e siècle le mythe américain des chercheurs d’or ou de pétrole devenus milliardaires en quelques coups de pioche. Ces start-up, parfois créées dans un garage, sont ainsi devenues les plus grandes capitalisations boursières mondiales et leurs patrons, des icônes de l’entrepreneuriat à succès puisque ces entreprises ont parfois à peine plus de 20 ans (Facebook a été créé en 2004 et Google en 1998). Pourtant, ces Gafam n’acquittent pratiquement pas d’impôts dans de nombreux pays, ou extrêmement peu, ce qui constitue un manque à gagner gigantesque pour les États. Champions de l’optimisation fiscale, elles font ressortir leur chiffre d’affaires dans les pays les moins fiscalisés et paient bien moins d’impôts que d’autres entreprises (« dumping fiscal »). Les calculs de la Commission européenne montrent que l’impôt sur les sociétés (IS) payé par les méta-plates-formes serait de l’ordre de 9 %, contre 23 % pour les acteurs de l’économie traditionnelle. Si une nouvelle taxe plus élevée était instaurée pour les acteurs du numérique, le montant annuel pour l’UE pourrait atteindre 415 milliards de dollars ! D’après certaines études, les pays européens auraient ainsi perdu à eux seuls 5,4 milliards d’euros en impôt de la part des seuls Google et Facebook, rien qu’entre 2013 et 2015 9 ! Quant aux experts du Cepii, ils estiment que les cinq Gafam ont payé moins de 10 % d’impôts sur leurs bénéfices hors États-Unis en 2016, Apple a même payé 0,005 % de taxes sur ses bénéfices européens en 2014, et Google 2,4 % sur ses profits hors États-Unis entre 2007 et 2009 10 . Certes, on n’est pas loin de trouver un consensus au niveau européen avec le projet de taxation des Gafam, mais ces derniers ont au moins vingt ans d’avance sur les États souverains, et une très forte capacité d’adaptation et d’inventivité, sans oublier leur pouvoir d’influence et leurs capacités à exercer des pressions sur les dirigeants politiques pour obtenir des avantages. Les Gafam ont ainsi acquis des positions dominantes sur les marchés numériques mondiaux en prenant le contrôle des plus importantes plates-formes de services internet en termes de nombre d’abonnés ou d’utilisateurs. Ces multinationales américaines du Web ont la caractéristique commune d’avoir toutes réussi à imposer des standards technologiques et sociétaux majeurs. Elles rendent ainsi les consommateurs dépendants de leurs services, grâce au contrôle de l’ensemble des écosystèmes d’utilisation d’interfaces (applications, logiciels, terminaux, équipements, accessoires) et des produits dérivés. Ces cinq sociétés hors norme ont su imposer des produits et des services d’une valeur exceptionnelle à leurs clients avec des offres d’une utilité telle qu’elles ont su s’imposer massivement dans le monde. À tel point que dans les pays développés, un utilisateur lambda passe plus de 80 % de son temps à surfer et à vivre dans le monde numérique, 51 % de sa journée étant consacrée à ces sociétés (messagerie électronique, e-commerce, musique, vidéo, réseaux sociaux...). Cette tendance s’explique par le fait que ces plates-formes proposent des services et des solutions en lien avec tous les domaines de la vie quotidienne en s’adaptant et en répondant quasiment en temps réel aux besoins des utilisateurs. Cela leur permet, bien sûr, d’écraser la concurrence de n’importe quelle entreprise car elles gèrent le marché et donc les prix selon leur bon vouloir. Les Gafam occupent tous des positions dominantes dans leur propre secteur. Google détient par exemple 90 % de la part de marché mondial en matière de recherche sur le Web, avec en moyenne plus de 5 milliards de recherches par jour. Facebook totalise plus de 2,7 milliards d’utilisateurs actifs et s’impose comme le seul réseau social à dimension mondiale. Quant à YouTube, avec des versions localisées dans une centaine de pays et la traduction de son site possible en 80 langues, il compte plus de 2 milliards d’utilisateurs mensuels qui regardent plus d’un milliard d’heures de vidéo par jour. « YouTube (racheté par Google en 2006) est vu bien plus que n’importe quelle chaîne de télévision 11 . » De plus, les Gafam se complètent dans leurs activités : nous avons besoin d’un téléphone Apple pour surfer sur Google pour ensuite aller sur Facebook et Amazon. Pour information, Apple (Apple iOS) possède 52 % des abonnés détenus par les systèmes d’exploitation, en concurrence avec Google Android qui en possède 47 % 12 . La puissance financière, politique et technologique démesurée des Gafam La capitalisation boursière de ces sociétés dépasse le PIB de certains États. Pour chacune d’elles, à l’exception de Facebook, le montant dépasse 1 000 milliards de dollars, soit le produit intérieur brut des Pays-Bas, qui sont tout de même à la 17 e place du classement des États les plus riches du monde ! Le PIB des Gafam, soit 5 170 milliards de dollars 13 , est supérieur à celui de l’Allemagne, du Japon ou de la France ! Ils sont même plus riches que la valeur cumulée des constructeurs automobiles ou que les deux tiers des entreprises du CAC 40, ce qui est inouï puisqu’ils sont fondés sur une activité virtuelle et ne produisent pas de biens manufacturés et industriels. « Beaucoup de consommateurs croient qu’Internet est gratuit. Nous savons, au regard des profits de Google [27,8 milliards d’euros de bénéfices en 2018], que ce n’est pas le cas », remarque le Texan Ken Paxton, l’un des cinquante procureurs d’États américains. Paxton vient d’ailleurs d’ouvrir une enquête accusant Google de monopoliser et de fausser le marché 14 . La puissance de ces entreprises est donc de plus en plus liée à leur capacité à utiliser l’or noir du XXI e siècle, à savoir les data et big data. Quelle entreprise peut-elle parvenir, en partant de zéro, à disposer de près de 10 milliards de dollars de revenus en seulement quelques années ? C’est la prouesse que vient pourtant de réussir Amazon avec son service Prime Video, et cela grâce à sa capacité à savoir quels pourraient être les films que chacun de nous préférera. Alors que la plupart des entreprises ont souffert économiquement de la pandémie, ce n’est pas du tout le cas des Gafam : Apple, Amazon, Microsoft ou Facebook ont tous augmenté leur chiffre d’affaires pendant la crise. De plus en plus souvent en situation de télétravail, les employés utilisent plus Internet et les réseaux sociaux pour communiquer et travailler. Ce phénomène de digitalisation de l’économie est en augmentation exponentielle, comme on l’a vu avec les ventes d’Amazon qui ont littéralement explosé, son chiffre d’affaires étant en hausse de 40 %, avec 89 milliards de dollars et un bénéfice net qui double à 5,2 milliards avec 175 000 emplois créés au deuxième trimestre 2020 15 . Cette concurrence est plus que déloyale pour les petits commerces : elle est souvent mortelle, car nombre d’entre eux ont dû mettre la clé sous la porte et laisser leur part de marché aux géants du Web. Les Gafam dépassent désormais nombre d’États dans le domaine de la recherche : des entreprises comme Google ou Facebook recrutent déjà les meilleurs ingénieurs du monde grâce à leur attractivité et à leurs moteurs de recherche. Grâce à eux, ils entreprennent des recherches sur l’intelligence artificielle, la santé ou le spatial, comme Tesla ou Amazon, dont les budgets de R&D sont nettement supérieurs à ceux de la plupart des États du monde, excepté les deux ou trois plus puissants. Ils ont acquis une puissance et une influence si considérables que certains pays comme le Danemark ou la France ont nommé des « ambassadeurs numériques » auprès d’eux ! Cette nouvelle forme de diplomatie numérique incite souvent les États à négocier avec eux plutôt que d’encadrer leurs activités par des lois et réglementations. Certes, ce laxisme des États face aux activités sans contre-pouvoir des Gafam est de plus en plus remis en question, mais cette réaction des États arrive avec au moins une décennie de retard... Les pouvoirs étatiques n’ont jusqu’alors jamais tenté d’imposer une régulation d’Internet, ni d’encadrer les activités de ces firmes dont le soft power est supérieur à celui de la plupart des nations souveraines. Et elles interfèrent même à présent sur le hard power étatique puisqu’une part croissante des conflits se déroule sur les réseaux sociaux et le Net. Ce pouvoir des Gafam revêt également une dimension idéologique et sociétale, car ils ont les moyens d’imposer leur vision libérale-libertaire du monde en implantant dans les consciences, via un consumérisme hédoniste, les dispositions addictives de leurs produits, modes et idées, ainsi que leur sans-frontiérisme et la doxa woke. Avec les Gafam et leurs émules, la taille critique de l’échange d’informations est en effet devenue le monde lui- même : ils se veulent « tout public », d’où l’expression de Benjamin Barber McWorld. Alors que les pionniers de la première génération (Microsoft, Oracle, Netscape, Nokia...) s’adressaient à des publics spécialisés (professionnels, geeks, etc.), les prestataires de la deuxième génération se veulent vraiment globaux en s’appuyant sur des réseaux sociaux couvrant aussi bien la vie privée que professionnelle, les enfants, les retraités. Un autre aspect de l’échange d’informations est l’uniformisation culturelle et notamment des styles de vie. Si la jeunesse nord-coréenne est privée d’une grande partie des produits et services sous licence américaine, elle n’en consomme pas moins – pour les plus fortunés, certes – des hamburgers et des jeans et utilise des clones d’iPhone, de Google et de Facebook. Multinationales prédatrices et capitalisme ubérisé : l’émergence d’un nouveau sous-prolétariat Incontestablement, les Gafam sont l’expression même de la puissance McWorld, cet empire d’expression anglo-saxonne qui défie les États et ubérise la société en justifiant ses prédations sociales et économiques et sa création d’un uber-précariat par l’idéologie transnationaliste. Certes, au tout début de sa présidence, Joe Biden a lancé le chantier ambitieux de mettre au pas fiscalement ces empires nomades en réclamant, conformément aux demandes de l’OCDE, une augmentation drastique des seuils d’imposition minimaux des Gafam, entreprises qui ont le plus profité de la pandémie mondiale. Ils sont désormais sommés de payer et de plier aux lois et prérogatives des États souverains. Le combat est toutefois loin d’être terminé. La généralisation du télétravail n’a pas fait que ruiner les investisseurs de l’immobilier professionnel, avec son cortège de bureaux abandonnés, mais elle a de facto obligé les employés à mettre leur domicile à disposition de l’entreprise, ce qui implique des factures d’électricité et d’énergie accrues, et a entraîné un coût social non encore évalué à sa juste mesure : dépressions, désocialisation, obésité accrue, alcoolisme, dépendance, violences conjugales. Du point de vue des fameux « acquis sociaux », le passage au télétravail va aboutir à délocaliser virtuellement encore plus que jadis, comme cela se passe déjà avec les centres d’appels délocalisés au Maroc ou en Tunisie, et il va accroître la pression à la baisse sur les salaires des pays avancés comme la France. Ce processus est inévitable, car quitte à payer un employé à distance, autant le recruter là où il est le moins cher, ce qui annonce un dumping social via la digitalisation qui va de pair avec l’ubérisation des métiers permis par les applications web de la Silicon Valley. De la même manière, le principe de l’autoentrepreneuriat, qui séduit au départ un jeune au chômage hostile à la hiérarchie directe, annonce la fin du marché national du travail, le dumping salarial et la précarisation des emplois, certes ainsi moins fiscalisés, mais analysables comme une régression en termes de protection sociale. Ces externalités sociales créées par les plates-formes des multinationales de l’ubérisation bouleversent totalement l’ordre social et réglementaire, réduisent les protections et même le droit du travail, puis inaugurent ainsi un nouveau sous-prolétariat ubérisé dont les retraites seront quasi inexistantes. Le poids de la plate-forme de livraison logistique d’Amazon, par ailleurs, est si fort qu’il impose de facto un dumping des prix qui ruine les concurrents locaux nationaux ainsi écrasés et remplacés par des autoentrepreneurs locaux ubérisés qui cotisent peu et rapportent plus aux Gafam. Cela a donc instauré une incroyable fracture entre, d’une part, l’économie nationale classique caractérisée, comme en France, par une relation au travail compliquée mais sécurisée et réglementée et, de l’autre, la nouvelle économie ubérisée des plates-formes et des autoentrepreneurs qui travaillent pour elles et qui permet, certes, à des personnes très peu qualifiées d’acquérir des emplois et qui n’ont pas pu être gérés par le monde de l’économie classique. Ainsi, sur 800 000 entités d’autoentrepreneurs créées par an, 30 % travaillent avec ces plates-formes ou vont être hybridées, comme un taxi qui est à mi-temps Uber. Ce capitalisme ubérisé ou de plate-forme, qui consiste à digitaliser à outrance les activités de services, jadis contrôlées de façon éclatée mais réglementée nationalement, est révolutionnaire : une plate-forme comme Airbnb, bien que ne possédant presque aucun actif et aucune infrastructure, et qui met simplement en contact, grâce au Web, clients et hébergeurs, est d’ores et déjà la première entreprise d’hébergement dans le monde, loin devant les conglomérats hôteliers. Elle ne génère toutefois pas de valeur ajoutée et enrichit des milliardaires en prélevant juste pour cela 20 à 30 % des gains des hébergeurs privés, concurrence redoutable pour les hôteliers classiques obligés d’accepter, pour ne pas disparaître, de baisser leurs prix et de tirer les vrais salaires de leurs employés vers le bas. L’autre exemple est offert par Booking, plate-forme hébergée aux Pays-Bas, qui vampirise quant à elle les hôtels, de facto obligés de suivre cette spirale du dumping des prix. Le bras de fer entre les cryptomonnaies et les États Défendues par les adeptes d’un projet d’une mondialisation libertaire, les cryptomonnaies, fruits des technologies NTIC et de la blockchain, sont également au cœur de la nouvelle économie mondiale ubérisée. Elles incarnent jusqu’à son comble l’immense défi pour les États souverains qu’est devenue la finance décentralisée et désouverainisée. Nous avons vu dans le chapitre consacré aux mafias et aux CTO qu’elles sont déjà utilisées par toutes les entités qui veulent échapper au contrôle des États et/ou à la justice. Cela explique pourquoi les puissances souverainistes les plus opposées à McWorld, notamment la Russie et surtout la Chine, ont banni les cryptomonnaies occidentales ou liées aux Gafam et ont créé leurs propres monnaies virtuelles sous le contrôle de leurs banques centrales en les indexant à leur devise officielle. Rappelons tout d’abord qu’une cryptomonnaie est une forme d’« actif virtuel », suivant la définition du Gafi, qui repose intégralement sur la cryptographie, qu’il s’agisse de leur création (le processus de « minage »), de leur rôle de réserve de valeur, ou de la sécurité du système de paiement. La plus célèbre est le bitcoin, fondé sur la blockchain 16 . Le but officiel était au départ de créer une monnaie, ou plutôt un moyen de transaction indépendamment des banques centrales, des États et du système bancaire traditionnel. De ce fait, ces monnaies posent la question du danger et des conséquences de l’affranchissement des leurs opérateurs vis-à-vis des émetteurs des États. Ces cryptomonnaies ont gagné en popularité en très peu de temps. Le bitcoin a vu sa valeur s’envoler en un temps record : entre janvier et décembre 2017, son cours a bondi de 2 000 %, passant de 953 à 20 089 dollars 17 . La capitalisation des cryptomonnaies oscillait, début janvier 2021, autour des 850 milliards de dollars (toutes cryptomonnaies comprises 18 ). On comprend pourquoi autant de personnes ont décidé d’y investir. Cependant, tandis que la valeur du bitcoin ne cesse de fluctuer et que des investisseurs opportunistes espèrent faire fortune en peu de temps, le risque de fraude grave augmente en parallèle. Les vols par des cyberattaques sont récurrents, et il est presque impossible de tracer et retrouver les fonds volés. De plus, les dépôts ne sont pas assurés ni protégés en cas de faillite, et la monnaie numérique n’est pas protégée par des régimes d’assurance-dépôts fédéraux ou provinciaux. D’évidence, si les monnaies classiques adossées à l’autorité des pays ne valent pas grand-chose, une monnaie fondée sur aucune contrepartie et contrôlée par aucune autorité ne vaut rien. Les cryptomonnaies n’ont en réalité de valeur qu’au sein de la communauté qui les utilise. On sait que les trois fonctions de la monnaie sont d’être une unité de compte, un intermédiaire des échanges et une réserve de valeur. Or si le bitcoin remplit les deux premières, il est loin de la troisième, car il n’est fondé sur aucune création de richesses, aucune contrepartie de la masse monétaire ne se trouvant à l’actif d’une banque centrale (or, devises-titres). Les cryptomonnaies peuvent par ailleurs servir de vecteur pour le blanchiment d’argent sale. Un simple dépôt dans un bureau de change, et l’argent sale est ainsi blanchi. Un rapport de l’OCDE sur la sensibilisation au blanchiment de capitaux observe qu’aucune identité n’est liée à une adresse de portefeuille ni à une transaction donnée. L’identité de l’utilisateur peut uniquement être connue du fournisseur du portefeuille ou de la plate-forme d’échange, si l’utilisateur choisit de recourir à de tels prestataires 19 . Certes, la plupart des plates-formes d’échange sont officiellement réglementées par les autorités financières nationales, donc théoriquement soumises aux mêmes conditions en matière de lutte contre le blanchiment d’argent. Cependant, les plates-formes d’échange appelées « pair à pair » permettent de contourner les contrôles et les protocoles d’identification. Ces monnaies, qui garantissent l’anonymat, suscitent naturellement l’intérêt des adeptes de la fraude fiscale, du blanchiment, et même d’opérations terroristes qui s’organisent souvent sur le Web clandestin. Hans-Jakob Schindler explique que « pour se financer, les terroristes ont cherché des alternatives auprès de la cryptomonnaie, dont le bitcoin [...]. La cryptomonnaie a l’avantage d’être accessible au plus grand nombre et comme elle n’est pas considérée comme un actif financier, elle ne peut être ni saisie ni gelée 20 ». Les cryptomonnaies sont donc un des meilleurs moyens de réaliser des transactions sur les marchés du Web clandestin sans que les parties se rencontrent physiquement. Elles sont l’outil idéal des prises d’otages informatiques, via les mails malveillants ouverts par inadvertance qui permettent de capter et crypter toutes les données d’un ordinateur et de réclamer des rançons en bitcoin pour les récupérer. On se souvient aussi de l’affaire Quadriga, cette première Bourse de cryptomonnaie, canadienne, qui servit de moyen de spéculation pour son fondateur, Gerald Cotten 21 , et dont les fonds de dizaines de millions de dollars investis par les clients n’étaient plus disponibles, lui seul connaissant le mot de passe du système... En réalité, l’argent des clients avait été transféré sur les comptes personnels de Cotten qui spécula ensuite sur d’autres plates-formes. Un flagrant démenti des affirmations de ceux qui vantent l’hypersécurisation de l’économie numérique. « Au Canada, les transactions bancaires sont réglementées et protégées, mais une plateforme de cryptomonnaies peut être lancée sans qu’on s’assure d’une chose aussi simple que le mot de passe ne soit entre les mains que d’une seule personne », déplore Gérald Fillion 22 . Certes, si le bitcoin est moins traçable qu’une banque ou qu’une carte de crédit, il l’est tout de même plus que d’autres monnaies encore plus anonymes, comme le monero, qui masque l’identité de l’expéditeur par le mixage de plusieurs transactions à la fois. Ceci rend ces cryptomonnaies totalement intraçables grâce à des clés à usage unique pour les paiements individuels, et en fait des instruments extrêmement attractifs pour les activités criminelles. Pour ce qui est des ransomwares, c’est-à-dire lorsque banques, avocats, notaires, architectes, hôpitaux, entreprises ou municipalités subissent les assauts de criminels dits « rançongiciels », ou lorsque les données essentielles du réseau informatique de sociétés du CAC 40 sont encryptées par le virus-cheval de Troie ransomware, les cryptomonnaies les plus utilisées sont le bitcoin, le monero et le zcash. L’un des grands experts des cryptomonnaies, dont l’entreprise gère la sécurité informatique de plusieurs d’entre elles et qui a cofondé la cryptomonnaie africaine « afro », David Nataf, précise que « si les demandes de rançon sont souvent effectuées en bitcoins, les cybercriminels changent immédiatement ces derniers en monero ou en zcash, qui ne respectent pas du tout les normes des États, contrairement au bitcoin ». Il précise que d’autres cryptomonnaies ou utility coins qui respectent scrupuleusement des chartes et qui sont sécurisées par la blockchain peuvent en revanche être vertueuses et se conformer aux lois des États. « Ce sont en fait les escroqueries spéculatives occultes et les cryptomonnaies sans projet et sans application réelle qu’il faut bannir, pas l’innovation qui fait progresser la liberté des nations, combat le crime par la transparence 23 . » Il ajoute de façon ironique que, depuis des décennies, « la monnaie qui absorbe le plus de transactions criminelles et qui sert le plus à blanchir de l’argent sale, avec des montants immensément plus élevés que celui des cryptomonnaies, demeure le dollar »... Dans des pays en banqueroute ou en crise grave, les cryptomonnaies peuvent prendre la place du système bancaire traditionnel et national, comme l’a souvent fait jadis le dollar (Argentine, Liban, etc.) en cas de crise majeure. Ainsi, en 2019, au Venezuela, lorsque l’inflation est montée à 9 585,5 %, suite à la gravissime crise économique, financière et politique survenue dans le pays autour de la réélection controversée de Nicolás Maduro en 2018, nombre de Vénézuéliens ont abandonné le bolivar au profit des cryptomonnaies, en particulier le bitcoin, demeuré à l’abri des conséquences des décisions du Gouvernement 24 . En août 2020, la plate-forme B2B LocalBitcoins a ainsi connu une hausse historique de 50 % : les échanges y ont représenté un montant record de 5 millions de dollars américains. Vingt mille points de vente dans tout le pays ont alors accepté le bitcoin comme monnaie de paiement. En réponse, le gouvernement du président Maduro a dû créer sa propre cryptomonnaie nationale, le « petro », dans le but de contourner l’embargo américain 25 . Dans certains pays, les monnaies virtuelles séduisent de plus en plus, car elles peuvent favoriser le processus d’intégration monétaire et constituer une monnaie alternative plus fiable qu’une monnaie souveraine trop dévaluée. Ainsi, début juin 2021, le Salvador a adopté le bitcoin comme seconde monnaie nationale au côté du dollar salvadorien. Le Mexique est lui aussi en train de l’adopter comme sa deuxième devise officielle nationale. En Afrique, les cryptomonnaies ont également le vent en poupe, parfois pour le pire (rançonnage informatique, évasion fiscale, blanchiment) ou pour le meilleur (voir infra). Le Nigeria totalise ainsi à lui seul 8 % des transactions mondiales de bitcoin, et les monnaies virtuelles gagnent également du terrain au Kenya ou en Égypte, qui y voient une assurance contre la hausse due à l’inflation. On peut également mentionner le succès naissant de l’afro, qui est en train d’être agréé par plusieurs États africains. L’afro est la première blockchain ayant été adoptée pour une mission de service public gouvernementale et dont la traçabilité s’ajoute au fait que, contrairement à d’autres, les gains sur les transactions sont reversés aux États dans le cadre d’accords de coopérations comme celui signé en 2021 avec la poste de Côte d’Ivoire. Toutefois, la stabilité des monnaies virtuelles les plus fiables et traçables, comme le bitcoin, n’est pas forcément une garantie éternelle pour les États défaillants qui y voient une solution contre leur monnaie souveraine : en mai 2021, la décision d’Elon Musk de refuser subitement les paiements en bitcoin, qui a fait s’écrouler d’un coup la valeur de celui-ci sous la barre des 40 000 dollars (30 % de perte), a démontré la grande instabilité de ces monnaies. Excepté des cas comme l’afro, ces monnaies servent trop souvent à contourner le système financier officiel et participent de la sorte à son affaiblissement : si tout le monde venait à utiliser les cryptomonnaies pour le stockage et la transaction d’argent, plus aucune règle internationale de contrôle et de réglementation ne serait en vigueur. Par exemple, avec sa cryptomonnaie « libra » – que la firme digitale voulait adosser à un panier de monnaies et d’actifs sûrs en créant l’équivalent du DTS, les droits de tirage spéciaux du FMI totalement virtuels –, Facebook ambitionnait de gérer (ou contrôler) tous les flux d’argent de la vie quotidienne. L’objectif démesuré de ce géant des Gafam, s’il était atteint, aboutirait à acquérir un pouvoir inouï en remplaçant le système en place, ce qui pose la question de la souveraineté des États dans lesquels la monnaie serait utilisée 26 . La France, l’Allemagne et l’Italie se sont d’ailleurs fermement opposées à l’instauration de la libra, le risque étant qu’une entreprise multinationale privée acquière la même puissance monétaire que celle de l’État qui, lui, reste soumis au contrôle démocratique et judiciaire. Il est vrai que, contrairement à une cryptomonnaie étrangère, les monnaies souveraines contrôlées par les banques centrales des États permettent aux gouvernements de collecter des impôts. La réponse en cours des États souverains consiste à plus inciter leurs banques centrales à créer des monnaies numériques parallèles. Un des premiers exemples a été offert par la Chine, avec le yuan numérique, ou « e-yuan ». Ainsi, après avoir interdit les paiements et le minage de bitcoins et autres cryptomonnaies sur son territoire, considérés comme menaçants, les autorités chinoises les ont remplacés par une cryptomonnaie souveraine. À terme, la Chine ambitionne de concurrencer les cryptomonnaies occidentales tout en contrôlant les flux. Dans la même logique, mais avec une efficacité bien moindre, la Banque centrale européenne (BCE) songe à lancer un e-euro pour contrer les cryptomonnaies privées hors contrôle 27 . L’autre tendance consiste à conclure avec les Gafam et autres créateurs de cryptomonnaies, parfois dans le cadre de rapports de force, des accords de non-nuisance réciproque et de délimitations des rôles. En conclusion, il est clair que les États, loin d’être impuissants, ont les moyens d’empêcher les opérateurs de monnaies virtuelles d’empiéter sur leurs prérogatives régaliennes, s’ils le décident... Liberté individuelle, espionnage En dépit de l’apparente gratuité, les Gafam et autres multinationales déterritorialisées font d’abord des affaires et s’enrichissent avec la publicité omniprésente et le pillage des données personnelles des citoyens et usagers, le plus souvent à leur insu, à des fins de marketing. Le fait que ces entreprises aient un monopole international et un libre accès aux données de millions, voire de milliards, d’utilisateurs signifie que les Gafam sont aujourd’hui capables de connaître toutes nos habitudes et de traiter nos données avec ou sans notre accord, sans que cela puisse réellement être vérifié. Au cours de la dernière décennie, ces firmes ont étendu considérablement leur territoire. En prenant d’abord le contrôle des smartphones : Android de Google et iOS d’Apple se sont imposés comme les seuls systèmes d’exploitation de nos appareils. Ils sont devenus la porte d’entrée d’Internet, en contrôlant notamment les magasins d’applications mobiles. Grâce à son moteur de recherche puis à YouTube et à son assistant vocal, Google a amassé une quantité astronomique d’informations sur les internautes, un atout qui lui permet de dominer la publicité en ligne. Cette capacité de ciblage est égalée seulement par Facebook, avec Amazon en embuscade, grâce aux informations sur les achats de ses clients et son majordome vocal, Alexa. Cette montagne de données permet à ces groupes de dominer le secteur émergent de l’intelligence artificielle, avec des services qu’ils monnaient aux autres entreprises via leurs filiales de location de serveurs à distance. Mais aussi d’avoir un avantage significatif pour pénétrer d’autres secteurs, comme l’automobile et la santé. Apple, Google, Facebook et Amazon ont aussi bouleversé les médias avec leurs services de streaming de vidéos et de musique. Songe-t-on ainsi que l’émission d’identité, aujourd’hui prérogative des États, pourrait bientôt tomber entre leurs mains ? Les Gafam ont d’innombrables moyens de vérifier plus sûrement que les États notre identité, au travers d’empreintes biométriques et digitales (yeux, voix, vitesse et mode de frappe sur un clavier...), du traçage de nos déplacements et destinataires de nos messages ou de notre façon de naviguer, etc. Il est ainsi probable qu’un passeport soit prochainement jugé moins fiable qu’une identité certifiée par Apple 28 ... Le premier front ouvert par les grandes démocraties est celui de la protection des libertés individuelles. Les Gafam ont récupéré tout ce qu’il est possible de savoir sur les hommes et les femmes qui ont, une fois dans leur vie, touché une souris d’ordinateur. Ils exploitent nos données grâce aux algorithmes très performants d’Amazon, Google ou certaines agences de voyages qui gèrent les publicités adaptées aux divers profils et modifient même les prix sur les différents sites de vente en ligne pour nous faire acheter plus, plus cher. Ainsi, Internet et les réseaux sociaux permettent aux entreprises internationales de prendre le contrôle de nos désirs, de vendre nos données personnelles au plus offrant en contournant les droits des citoyens et les prérogatives des États, imposant ainsi une concurrence déloyale aux petites entreprises qui ne peuvent survivre face à l’ubérisation généralisée. Elles sont également, via les réseaux sociaux et l’incontrôlabilité du Web, de formidables instruments de manipulation de l’opinion publique. La collecte de ces données est devenue le modèle économique de ces géants technologiques, qui les vendent à des tiers. Dans la plupart des cas, sans le consentement explicite de leur utilisateur ou sans l’en avertir clairement. Ce business a été révélé lors du scandale Facebook/Cambridge Analytica quand 30 à 70 millions d’utilisateurs Facebook ont vu leurs données recueillies sans leur consentement en passant par un quiz qui a absorbé non seulement leurs informations personnelles mais aussi celles de leurs amis. On peut aussi citer le scandale de l’enseigne H&M qui, entre 2014 et 2019, a enregistré les données des salariés d’un site à Nuremberg à leur insu, afin d’établir des profils individuels et un système de surveillance puis de rendre les informations visibles pour une cinquantaine de responsables du groupe. L’enseigne a par la suite été condamnée à une amende de 35 millions d’euros. En relation avec Facebook, de nombreux autres scandales récents ont mis en évidence la dangerosité de ces sociétés hors contrôle. On peut citer l’exemple du piratage, par des hackeurs, de 50 millions d’utilisateurs 29 qui a permis à des cybercriminels de prendre le contrôle de comptes d’utilisateurs et d’accéder à des données personnelles. En 2019, un autre scandale a concerné Facebook, dévoilé dans le Wall Street Journal 30 , lorsqu’on a découvert que la firme recueillait des données personnelles comme le poids, la pression sanguine, mais aussi les cycles menstruels ou les phases d’ovulation, y compris de personnes n’ayant pas de compte Facebook (grâce à des posts et messages)... En 2018, l’agence de presse de Bloomberg dévoilait ainsi un accord secret entre Google et Mastercard aux États-Unis concernant les clients Mastercard américains détenant un compte Gmail et ayant accepté la politique de suivi publicitaire dans les paramètres de leur compte Google. Ceux-ci ont fait l’objet d’un recoupement entre les données bancaires de tous leurs achats et leurs profils utilisateurs. Malgré les nombreuses voix qui se soulèvent contre cette collecte massive de nos données personnelles et les abus, les récents événements suggèrent que cette tendance va continuer à empirer, nos vies étant appelées à être toujours plus digitalisées. L’arrivée de la 5G, qui va multiplier de façon exponentielle les fonctionnalités et capacités de l’économie digitale, contribuera à rendre de plus en plus réel le scénario, jadis de science-fiction, décrit par George Orwell dans 1984. Les Gafam, danger pour les États... sauf pour les deux hyperpuissances qui les ont créés... Si elles offrent des opportunités, obtentions d’informations, échanges et acquisitions de savoirs extraordinaires, en plus du fait qu’elles permettent de « raccourcir les distances » entre les hommes et faire l’économie de déplacements, les multinationales du digital ont aussi leurs zones d’ombre : elles menacent la souveraineté des États, elles sont de plus en plus dénoncées pour leur mainmise tentaculaire sur l’économie mondiale et leur pratique de corsaire fiscal. Leur puissance colossale et planétaire ne découle pas uniquement de leur force de frappe économique mais également de leur capacité à influencer et donc potentiellement à déstabiliser l’ordre international puis à s’affranchir de règles et lois en vigueur dans les territoires soumis au contrôle des États et des juridictions qu’elles défient. Quant aux dirigeants de ces entreprises, ils sont attendus et reçus à chaque déplacement comme des chefs d’État, et ils n’hésitent pas à se poser eux-mêmes comme leurs égaux. En rachetant systématiquement les start-up les plus innovantes susceptibles de les concurrencer, les Gafam créent des situations quasi monopolistiques (« économie de plate-forme »). Leurs dirigeants défient les États dans leur souveraineté et réussissent souvent à imposer leur volonté par le droit fiscal et social, l’éducation, les normes techniques, les choix industriels, mais aussi par le chantage économique, l’obsolescence programmée, l’imposition des standards ou les pratiques anticoncurrentielles. De plus, les Gafam contrôlant tous les flux d’informations peuvent manipuler les opinions et pratiquer l’influence ou la désinformation de masse, à des fins politiques ou idéologiques, en bloquant certaines informations ou certaines personnes, tout en mettant en valeur d’autres. Ils peuvent favoriser l’apparition de certains sites internet plutôt que d’autres lors des recherches dans leurs moteurs. Malgré leurs dénégations publiques, et en dépit des professions de foi politiquement correctes de leurs dirigeants, les Gafam et leurs organismes de censure qui traquent le populisme mais laissent s’exprimer des groupes criminels (drogue, armes, prostitution, etc.), fanatiques, islamistes ou même complotistes et terroristes, ont en fait assez peu de considération pour la protection des lois et de la sécurité des sociétés démocratiques. Réseaux sociaux, entre trop grande liberté et néocensure très orientée... Donald Trump, définitivement interdit sur Twitter, mais pas Recep Tayyip Erdoğan, Mahathir Mohamad ou les plus grands prédicateurs islamistes ! En réalité, les réseaux sociaux peuvent être de formidables outils de propagande et de désinformation pour maints lobbys, manipulateurs, extrémistes de tout bord, y compris des islamistes radicaux et des djihadistes, et pas seulement les « populistes », ainsi qu’on l’observe notamment sur Instagram, Twitter ou Facebook, où des « influenceurs » islamistes ont des dizaines de millions d’abonnés. Une étude de la Brookings Institution a démontré qu’au moins 46 000 comptes Twitter ont été liés à l’État islamique entre septembre et décembre 2014, et que 9 200 autres sont toujours directement liés à des groupes djihadistes, la firme digitale n’ayant jamais voulu les faire disparaître une bonne fois pour toutes. Les comptes soutenant l’EI ont en moyenne 1 000 abonnés, soit « bien plus qu’un compte habituel ». Ils n’ont pas été censurés par les Gafam pendant des années, et il a fallu que les États fassent pression après les vagues d’attentats et crimes contre l’humanité commis par Daesh pour que Facebook et Twitter commencent à réagir, preuve que l’État peut réguler les Gafam s’il le veut. Les cyberdjihadistes continuent toutefois d’y recruter. Twitter est dans ce cas précis le réseau privilégié, car il permet de créer très rapidement un compte facile à suivre dès qu’une autorité impose la fermeture du compte précédent et de poster des liens vers des plates-formes où se trouvent les véritables documents, vidéos ou enregistrements, comme archive.org. Gilles de Kerchove, coordinateur européen chargé de la lutte contre le terrorisme, a ainsi déploré que le « jihad virtuel est favorisé par le phénomène de “l’enfermement algorithmique” : lorsqu’un mot-clé est inscrit dans un moteur de recherche, les algorithmes l’enregistrent et l’internaute reçoit ensuite des contenus similaires. Un individu qui recherche des informations via Internet sur le jihad et l’État islamique reçoit naturellement du contenu faisant écho à sa recherche 31 ». Malgré les avertissements de lanceurs d’alertes et des services de sécurité ou judiciaires de pays inquiets des activités des prédicateurs fanatiques sur les réseaux sociaux, de nombreux comptes sont ajoutés chaque jour qui profitent en fait d’un vide juridique dû au fait que les législations des États ne sont pas adaptées aux nouvelles réalités compliquées du monde virtuel et digitalisé. Parfois, les logiques de Facebook sont étonnantes : les organes de censure de ce géant des Gafam sont très vigilants contre les activistes nationalistes et les suprémacistes blancs, ainsi que les milieux d’extrême gauche ou d’extrême droite antivaccins, à juste titre, mais très peu a été fait contre les milieux islamistes pourtant encore plus hostiles aux démocraties et en général aux États régaliens souverains de tous les pays du monde. Le 8 janvier 2021, suite à l’attaque du Capitole du 6 janvier 2021, et en réponse aux tweets de Donald Trump et aux discussions sur d’éventuelles manifestations armées à Washington DC, Twitter a définitivement banni l’ex- Président américain de sa plate-forme sous prétexte que ses derniers tweets risquaient d’inciter à plus de violences. La firme a également fait supprimer les messages envoyés sur le compte @POTUS, ainsi que sur d’autres comptes. Facebook lui a également infligé une interdiction « indéfinie » jusqu’au jour de l’inauguration. On remarquera toutefois que les réseaux sociaux n’ont commencé à prendre des mesures contre le Président qu’après que le Parti démocrate a pris le contrôle du Sénat, le 5 janvier 2021, la première fois qu’il détient une majorité à la fois à la Chambre et au Sénat depuis une décennie, ce qui lui donne le pouvoir de superviser Big Tech... Par contraste, le président Recep Tayyip Erdoğan, qui dispose sur Twitter de 17,3 millions d’abonnés, et sur Facebook de 9 805 204 « j’aime » et plus de 10 millions d’abonnés, n’a jamais été censuré alors qu’il a provoqué des violences et répressions bien plus meurtrières et volontaires que son homologue américain. Malgré maintes provocations, insultes, menaces proférées contre plusieurs pays et appels à la haine ou au négationnisme, il n’a jamais été suspendu sur les grands réseaux sociaux. Erdoğan a pourtant fait bien pire que Trump : il a muselé l’opposition et la presse depuis 2017, s’est fait accorder les pleins pouvoirs, son gouvernement « national islamiste » a fait massacrer les Kurdes en Syrie, tente de s’emparer des eaux souveraines et du gaz de la Grèce et de Chypre du Nord, occupée, nie activement le génocide arménien, a fait envoyer en Libye et en Azerbaïdjan des djihadistes recrutés en Syrie, appuie le mouvement terroriste palestinien Hamas à Gaza et a même soutenu Daesh entre 2014 et 2016 et al-Qaida en Syrie jusqu’à présent, puis a lancé en octobre 2020 une campagne mondiale de haine contre la France et Emmanuel Macron... L’ex-Premier ministre malaisien, Mahathir bin Mohamad, connu pour ses positions antisémites et négationnistes et ses récents appels au meurtre, dispose de 3 668 228 « j’aime » et de 4 millions d’abonnés sur Facebook, et de 1,3 million sur Twitter. Il a pu écrire le 29 octobre 2020, sur Twitter et sur son blog, après la décapitation de Samuel Paty, que « les musulmans ont le droit d’être en colère et de tuer des millions de Français ». Le pire est que ce texte a été maintenu dans un premier temps par les autorités de régulation de Twitter, qui ont invoqué un « intérêt pour le public », tout en l’accompagnant d’un avertissement, et la firme a fini par retirer le tweet sous les pressions des États, mais sans pour autant supprimer le compte de celui qui appelle au meurtre... Twitter connaissait pourtant depuis longtemps son radicalisme islamiste antioccidental : lors de son discours d’ouverture du dixième sommet de l’Organisation de la Conférence islamique des 16-18 octobre 2003, Mahathir tint des propos ouvertement antijuifs et complotistes en affirmant que « quelques millions de juifs ne sauraient triompher d’un milliard trois cents millions de musulmans ». Et face aux réactions d’indignation venues du monde entier, Mahathir récidiva peu après : « Eh bien, que le monde ait réagi ainsi démontre qu’ils [les juifs] contrôlent le monde. [...] Israël est un petit pays. Il n’y a pas beaucoup de juifs dans le monde. Mais ils sont arrogants au point de défier le monde entier [...], ils tiennent de nombreux médias qui présentent les choses de manière complètement unilatérale et influencent beaucoup de gens » (30 octobre 2020). Mais ni Twitter ni Facebook n’ont jugé bon depuis son dernier appel au meurtre de « millions de Français » de fermer ses comptes... On peut également citer d’autres preuves de ces deux poids deux mesures : l’émir du Qatar, Tamim Al Thani, qui dispose de 925 000 abonnés sur Twitter, n’y a jamais été censuré, bien qu’il ait soutenu les révoltes des Frères musulmans depuis le printemps arabe qui ont déstabilisé plusieurs États, et bien que son pays ait appuyé et financé maints groupes djihadistes dans le monde. L’homme fort de Tchétchénie, Ramzan Kadyrov, avec 400 000 abonnés sur Facebook, a simplement été brièvement suspendu en 2017 mais jamais banni des réseaux sociaux alors qu’il a appelé à massacrer les homosexuels, les blasphémateurs, commis des carnages et récemment gravement insulté et menacé le président Emmanuel Macron et la France suite à la décapitation de Samuel Paty par un Tchétchène (16 octobre 2021). Son protégé, le champion d’arts martiaux Khabib Nurmagomedov, Daghestanais, qui a « prié pour que Macron soit défiguré », ainsi que « tous ses disciples de la liberté d’expression », continue librement de communiquer avec ses 25 millions d’abonnés sur Instagram et n’a jamais été lui non plus banni des réseaux sociaux... Dans un autre registre, Nicolás Maduro, le révolutionnaire bolivariste, successeur de Hugo Chávez, qui a empêché le processus démocratique, ruiné et conduit son pays à la guerre civile, muselé l’opposition et fait exécuter des milliers de personnes, n’est pas censuré : sur Facebook, il a 977 634 mentions « j’aime » et 1,2 million d’abonnés, et sur Twitter près de 4 millions d’abonnés. Récemment, un tweet du Guide suprême de la révolution islamique iranienne hostile aux vaccins a été supprimé sur ses 2 comptes (335 000 et 880 000 abonnés), mais le dictateur théocratique du régime iranien, Ali Khamenei, qui a appelé si souvent à tuer des « ennemis de l’islam », des opposants et autres ennemis de Téhéran, et dont le régime finance le terrorisme international, n’a jamais été banni des réseaux sociaux ni ses comptes supprimés comme ceux de Trump. L’Arabie saoudite, les Frères musulmans, leur protecteur et financier, le Qatar, ont très rarement été sanctionnés par Twitter, alors que ces pays et organisations professent et diffusent la version la plus fanatique et totalitaire de la charia, et que nombre de prédicateurs wahhabites et fréro-salafistes officiels disposent de comptes sur les réseaux sociaux parmi les plus suivis au monde. Il est vrai que l’Arabie saoudite est l’un des plus importants actionnaires de Twitter 32 ... Autre fait révélateur, en mars 2020, on apprit que le Conseil de surveillance de Facebook et Instagram a intégré en son sein le Prix Nobel de la paix yéménite, Tawakkol Karman, militante des Frères musulmans qui s’est fait connaître pour son engagement provoile islamique et durant le printemps arabe par son action révolutionnaire islamiste. Dans un rapport de l’Institut Montaigne intitulé La Fabrique de l’islamisme, on apprend que parmi les 200 comptes au monde ayant le plus de followers figurent 5 abonnements arabophones de prédicateurs wahhabites salafistes. Le rapport mentionne ainsi Muhammad al-Arifi, avec ses 21,4 millions d’abonnés sur Twitter (et 25 millions sur Facebook), ce qui fait de sa page le premier compte saoudien et le premier abonnement religieux du monde et le 86 e mondial tous tweets confondus. Ce docteur en théologie, qui enseigne à l’université du Roi-Saoud de Riyad, justifie notamment le droit pour les maris de battre leurs femmes et le meurtre des apostats. On trouve ensuite le théologien Ayid al-Qarni, qui, avec 19 millions d’abonnés Twitter, professe l’idéologie salafiste du Sahwa qui rejette les valeurs occidentales et vante la même charia totalitaire antimécréants ; le Saoudo-Palestinien Ahmad Al Shugairi, 18 millions de followers, qui prône le salafisme obscurantiste et la haine envers les mécréants dans de nombreuses émissions de télévision religieuses ; Salman al-Ouda (14,2 millions d’abonnés), proche des Frères musulmans, qui anime le site Islam Today, le Koweïtien Mishari Rashid Alafasi (16 e position, avec 14 millions d’abonnés), récitateur du Coran, expert en nasheeds, chants islamiques interdisant les instruments de musique très prisés par les djihadistes. Tous diffusent une conception du monde chariatique liberticide hostile aux non- musulmans, vus comme inférieurs ou/et hostiles, aux apostats et aux blasphémateurs promis à la peine de mort. Du côté des prédicateurs frères musulmans, le plus célèbre et populaire d’entre eux, cofondateur des grandes associations fréristes occidentales et téléprédicateur vedette d’Al Jazeera, Youssef al-Qardaoui, dispose de 3 millions d’abonnés sur Twitter et de 642 362 sur Facebook. Ses comptes n’ont jamais été définitivement bloqués, alors qu’il a écrit des ouvrages et lancé maintes fatwas incitant à tuer les apostats, les juifs, les homosexuels, les blasphémateurs, les adultères et les dirigeants arabes laïques nationalistes, puis a justifié les attentats suicide... L’un de ses disciples en Europe, Tariq Ramadan, petits-fils du créateur des Frères musulmans, Hassan al-Banna, n’est ni censuré ni interdit sur Twitter, où il a 702 000 abonnés, ou sur Facebook, avec ses 2 233 408 « j’aime » et ses 2 324 900 abonnés. Son frère, Hani Ramadan, qui continue de codiriger la principale association des Frères musulmans en Suisse, qui a souvent été signalé par les renseignements et les polices françaises et suisses pour son radicalisme, justifie les répudiations, la lapidation, l’infériorité des femmes et autres mesures totalitaires chariatiques, dénonce en permanence Israël, le sionisme et les intellectuels juifs, n’est pas plus censuré sur Twitter (5 665 abonnés) que sur Facebook (16 626 « j’aime » et 16 800 abonnés). Proche de ces derniers, le prédicateur islamiste frère musulman, Hassan Iquioussen, antisémite notoire et fanatique traqueur de sionistes, diffuse quant à lui tranquillement son venin idéologique depuis 2009 sur Twitter, où il a 2 500 abonnés et surtout sur Facebook, où il en a 144 000. Oligopole des Gafam face au Big Brother chinois des « BATX » Face aux Gafam et aux Natu occidentaux, pour l’heure encore les plus puissants, se dressent les équivalents concurrents chinois BATX (Baidu, Alibaba, Tencent, Xiaomi). Ces géants ont été créés au départ dans le but de limiter en Chine l’influence et le contrôle des Gafam américains, puis de les concurrencer au niveau mondial sur leur propre terrain. Les deux groupes de multinationales digitales se livrent depuis une véritable guerre géoéconomique, financière et idéologique planétaire, chacun véhiculant des intérêts et des valeurs opposés et entretenant des rapports étroits avec les services de renseignements respectifs. Ils s’infiltrent discrètement dans l’économie mondiale en rachetant des entreprises de tous les pays, notamment occidentaux, ou en nouant des partenariats visant à créer de véritables monopoles. Même s’ils l’ignorent le plus souvent, les utilisateurs de Paytm, de Bigbasket (en Inde), de Tokopedia (en Indonésie), de Lazada (à Singapour) ou encore de Trendyol (en Turquie) sont en réalité des clients d’Alibaba, géant chinois. Créé en 2000, le moteur de recherche Baidu a quant à lui longtemps été cantonné au marché chinois. Sa valeur sur les marchés est certes encore loin d’égaler celle d’Alphabet, la maison mère de Google, mais il est déjà le quatrième site le plus visité du monde, et ses techniciens sont à la pointe du progrès en matière d’intelligence artificielle et de voitures autonomes. À l’instar de l’outsider géopolitique, stratégique et technologique chinois, qui défie de plus en plus et cherche à terme à dépasser le numéro un américain, les rapports de force peuvent évoluer très vite et les BATX chinois pourront un jour s’imposer au niveau mondial. Alibaba est d’ores et déjà le concurrent direct le plus redoutable d’Amazon, et le premier distributeur mondial, devant Walmart. Son atout principal est un système de paiement en ligne à la fiabilité reconnue : Alipay. Mais le conflit sino- américain concerne également le domaine du développement de la technologie 5G. La guerre froide sino-américaine et l’enjeu géoécomique majeur de la 5G La 5G est la cinquième génération de technologie de réseau mobile, qui permet une « hyperconnectivité », censée être dix fois plus rapide que la 4G. En fait, la 5G n’a pas seulement pour objectif la vitesse du réseau, mais aussi la possibilité d’interconnexion des services et objets comme les véhicules sans conducteurs, les robots, les villes intelligentes (smart cities), la reconnaissance faciale ou encore la télémédecine. D’après l’entreprise américaine Qualcomm, la 5G devrait générer des ventes de l’ordre de 13 200 milliards de dollars d’ici 2035 33 . Il est vrai que le nombre de téléphones portables explose littéralement : on compte plus d’un abonnement mobile par habitant sur terre, et selon la Banque mondiale, on dénombrait déjà environ 104 abonnements mobiles pour 100 habitants dans le monde en 2018 34 ! De quoi faire la fortune des géants des télécoms comme Apple (leader des smartphones aux États-Unis), Samsung (leader en Europe) ou Huawei (dominant en Chine). Jusqu’alors, les standards étaient créés et imposés par l’Occident, en particulier les États-Unis, ce qui leur permettait de contrôler la majorité des communications mondiales via leur agence de renseignements, la NSA 35 , et les accords de coopération d’échanges d’informations et d’espionnage mondial des câbles transportant les communications sous les mers et océans, conclus entre les cinq pays anglo-saxons « Five Eyes », sous l’égide de la NSA (réseau Echelon et Prism). Diverses polémiques de collecte de données et/ou d’espionnage par la NSA ont d’ailleurs été rendues publiques par l’affaire Snowden 36 . De son côté, la Chine est déterminée à avoir ses propres systèmes de télécommunications, de réseaux sociaux et de téléphonies mobiles dans un double intérêt : que cela rapporte à l’économie chinoise et prémunisse la Chine de l’espionnage mondial anglo-saxon préjudiciable à la sécurité nationale et à la souveraineté. Le conflit sino-américain autour de la 5G, et plus globalement autour de l’enjeu stratégique de demain, a pris forme lorsque Donald Trump, à peine arrivé à la Maison Blanche en janvier 2016, a voulu « rendre sa grandeur à l’Amérique », notamment en réduisant le déficit commercial avec la Chine qui allait atteindre un niveau record deux ans plus tard : 621 milliards de dollars en 2018, son plus haut niveau en dix ans. Pour Donald Trump, cela était dû à la concurrence déloyale chinoise, il s’agissait donc pour lui de faire pression sur Pékin afin de pouvoir négocier un accord commercial à l’avantage de Washington. Début 2018, les taxes américaines ont ainsi commencé à être augmentées sur les panneaux solaires en provenance de Chine, puis sur l’aluminium et l’acier (25 % de taxes annoncées sur les importations d’acier et 10 % sur celles d’aluminium). La Chine a ensuite contre-attaqué en taxant 128 produits américains. États-Unis et Chine se sont rendus coup pour coup, et en mai 2019, Washington a augmenté les droits de douane pour un montant total de 200 milliards de dollars. Ce conflit commercial et les enchaînements de représailles réciproques ont fait craindre une réduction de l’investissement des entreprises, une perturbation des chaînes d’approvisionnement et donc un ralentissement de la croissance avec, à l’issue, une augmentation des coûts pour les producteurs et les consommateurs. D’après la présidente du FMI, Kristalina Georgieva 37 , une guerre commerciale pourrait coûter 700 milliards à l’économie mondiale. En réalité, l’objectif des Américains, et pas seulement de Donald Trump, inquiets de la montée en puissance de la Chine, est d’empêcher cette dernière de devenir la première puissance mondiale et surtout de ne pas perdre l’hégémonie technologique. Le conflit entre les deux superpuissances s’est donc dirigé vers le secteur des nouvelles technologies entre les Gafam américains et les BATX chinois, auxquels on pourrait ajouter Huawei (entreprise fortement liée au régime communiste de Pékin), au sujet des réseaux sociaux et surtout, actuellement, de la 5G. Les États-Unis ont de ce fait ciblé le géant chinois des télécoms Huawei afin que celui-ci ne puisse plus se fournir auprès des entreprises américaines. Pour la première fois, la domination technologique ne vient pas de l’Occident mais de la Chine, plus précisément du groupe chinois Huawei, créé à Shenzhen. La Chine est en effet déterminée à devenir la première puissance mondiale d’ici 2049, et elle vise clairement le leadership mondial, notamment grâce à la 5G, dont Huawei est l’acteur clé. Le 22 mai 2020, Huawei avait déjà écoulé 15 millions de smartphones compatibles 5G. Ainsi, en juillet 2019, Monaco est devenue « le premier pays 5G au monde » en équipant toute la principauté de 23 sites d’antennes dernière génération. Pour Washington, cette fulgurante expansion de Huawei est inacceptable, le matériel chinois diffusé partout dans le monde ne pouvant que faciliter l’espionnage ou d’éventuelles cyberattaques chinoises. Dès janvier 2018, les États-Unis ont donc réagi en interdisant toute vente de technologie américaine à Huawei (très dépendante du système d’exploitation Android de Google notamment). En décembre 2018, la directrice financière du groupe Huawei, Meng Wanzhou, a été arrêtée au Canada à la demande des États-Unis, accusée de « violation des sanctions contre l’Iran instaurées par les États-Unis »... En représailles, Pékin fait arrêter deux Canadiens en les accusant d’espionnage. Encore un signe que les États peuvent réagir face aux FMN s’ils sont motivés. Dans cette guerre froide géoéconomique sino-américaine, le protectionnisme technologique a rejoint l’affrontement commercial et les tensions militaires en mer de Chine. En 2019, Donald Trump a banni Huawei des futurs réseaux 5G américains. Depuis 2018, chaque pays accuse l’autre d’espionnage dans le contexte de lutte pour la souveraineté technologique, contraignant de facto les autres nations du monde à choisir leurs camps. Ainsi, le 16 mai 2019, l’Australie, le Japon, la Nouvelle-Zélande, Taiwan et les États-Unis ont banni les produits Huawei de leurs réseaux mobiles 38 . Mais d’autres pays comme le Brésil, le Canada ou l’Inde pourraient, à l’avenir, emboîter le pas aux États-Unis. En dehors de Huawei, ce conflit géoéconomique et technologique sino-américain oppose plus largement les Gafam américains aux BATX chinois. Avec ces entreprises, en dehors de l’objectif économique évident, le but stratégique de Pékin est de : 1/ contrôler les réseaux et flux d’informations sur son territoire ; 2/ maîtriser les chaînes et flux d’informations au niveau régional et mondial échappant totalement aux réseaux contrôlés par les États-Unis ; 3/ couper la population chinoise de l’influence occidentale subversive (démocratie, droits de l’homme, libertarisme) qui mettrait en péril à terme la dictature chinoise confucéo-communiste. Bien que les BATX soient encore loin des résultats des Gafam, ils remplissent pour l’instant parfaitement cet impératif de contrôle de l’information au niveau national. La capitalisation boursière des Gafam est encore nettement supérieure à celle des BATX, mais les concurrents chinois commencent à inquiéter : depuis 2018, Tencent a quasiment rattrapé Facebook 39 , avec respectivement 356,7 et 403,9 milliards de dollars. Autre exemple de ce rattrapage rapide : en 2020, l’application TikTok, qui appartient à l’entreprise chinoise ByteDance, a réussi une percée fulgurante à l’international, y compris aux États-Unis, puisque 26 millions d’Américains utilisent la plate-forme. D’où la menace américaine de les interdire dans leur pays. Là aussi, l’Europe se retrouve totalement déclassée et prise en tenailles par tous ces géants de l’information étrangers : sur les dix premiers acteurs de l’informatique via le cloud, où toutes les données sont stockées, le Vieux Continent ne figure sur aucune position, les grands champions étant américains et chinois, avec notamment Amazon Web Service (AWS), qui domine 32 % du marché selon le Synergy Research Group ; Google, qui suit avec 9 % devant le chinois Alibaba (6 %), lui-même suivi par IBM Cloud, Salesforce, Tencent et Oracle. La conclusion peu reluisante pour l’UE est que 84 % du cloud européen est américain, le reste chinois... « Le Yalta des mondes digitaux » En dehors de la Chine, les autres États du monde demeureraient-ils impuissants à freiner, contrôler ou enrayer la puissance des Gafam et leurs sous-jacents idéologiques libertaires consuméristes et « antisouverainistes » portés par leurs réseaux sociaux ? Les autres puissances du monde multipolaire sont-elles capables de contrecarrer ce que les stratèges de Pékin décrivent comme le « nihilisme » hédoniste occidental, menace mortelle pour les démocratures ? En réalité, les Gafam imposent leurs postulats libertaires McWorld uniquement là où des pouvoirs politiques les laissent faire : tout comme la pornographie est totalement bannie sur le Web dans les pays musulmans et la propagande pédophile également bloquée sur le Net en Occident, la Chine, l’Iran, la Turquie ou la Russie bloquent les flux du Net qu’elles ne veulent pas voir arriver dans leur espace de souveraineté virtuel et les réseaux sociaux peuvent y être fermés à n’importe quel instant. Lorsque les États se mettent en travers de leur route, les Gafam n’ont d’autre choix que de s’aligner, car leur but est avant tout de vendre les produits publicitaires sur leurs espaces virtuels et d’attirer de nouveaux utilisateurs en permanence pour croître. La réalité crue est l’instauration d’un « Yalta des mondes digitaux » : deux univers de communication distincts sont en train de s’imposer avec, d’une part, l’univers libéral-libertaire de McWorld, propre aux démocraties occidentales, et, d’autre part, l’univers oriental des démocratures qui soumettent ces Gafam et de la Chine qui les remplace par leur propre « Big Brother » digital des BATX. L’anglais, qui était en passe de s’imposer comme langue des réseaux sociaux dans les années 2000, commence d’ailleurs à reculer sur le Web au fur et à mesure, précisément, de l’extension des réseaux sociaux venus d’autres horizons géocivilisationnels. La communication est sans doute l’élément le plus volatil de la globalisation. La conclusion est que la mondialisation communicationnelle peut échapper à son créateur occidental, et que la modernité devient de plus en plus a-occidentale. La nationalisation des moyens d’information Face aux scénarios posés par nombre d’observateurs qui craignent que les Gafam fassent barrage aux pouvoirs régaliens des États, d’autres analyses, plus cyniques encore, mais réalistes, suggèrent que les choses sont bien plus paradoxales et moins manichéennes qu’il n’y paraît. La preuve imparable que le pouvoir des Gafam est limitable par celui des États qui refusent d’abdiquer leur souveraineté est apportée chaque jour par la Chine maoïste capitaliste : l’Internet y est totalement encadré de façon drastique par un système complexe de censure dénommé « la Grande Muraille électronique » qui bloque automatiquement les réseaux sociaux Facebook et Twitter, ainsi que YouTube et Google. Les entreprises du Digital Big Brother chinois que sont Baidu, Tencent et Alibaba profitent du blocage des rivaux internationaux sur le marché chinois pour développer les réseaux sociaux domestiques comme WeChat et Weibo. Les dirigeants de ces entreprises sont eux-mêmes soumis à un contrôle strict, comme l’a illustré la disparition, pendant plusieurs semaines, de Jack Ma, patron d’Alibaba, après des propos controversés... Même en Europe, les choses sont plus complexes qu’il n’y paraît et le pouvoir des Gafam est plus le fruit du vide digital de l’UE que le résultat d’une hyperpuissance intrinsèque. Des initiatives européennes afin de concurrencer les Gafam américains ont certes pour l’instant échoué : le moteur de recherche Qwant peine à s’imposer quand le projet Galileo de GPS européen a dû se cantonner aux seules applications professionnelles. La seule initiative européenne commune concerne le projet de taxation des Gafam qui n’entravera pas pour autant leur position monopolistique en Europe et leur diffusion d’une contre-société libéral-libertaire en réalité acceptée par les social-démocraties européennes. Les acteurs français du numérique, tout comme les Israéliens – les plus en pointe –, préfèrent généralement s’appuyer sur les Gafam plutôt que les concurrencer. En revanche, dans les États plus « souverainistes », comme la Russie, la démocratie indienne, la démocrature turque, la république islamique d’Iran, les pays arabo-musulmans et d’Asie, des politiques de censure parfaitement assumées bloquent les informations et communications sur les réseaux sociaux et le Net. Et les Gafam préfèrent s’en accommoder plutôt que de risquer d’y être remplacés par les BATX chinois ou autres plates-formes non occidentales moins regardantes sur les valeurs libéral-démocratiques. Bref, les Gafam sont en fait souvent « du côté du manche », ainsi que l’élection de Biden l’a démontré à travers le bannissement subit de son ennemi Trump... Inversement, l’administration de Donald Trump, dont l’élection n’aurait pas été possible sans les réseaux des multinationales digitales, les a soutenus lorsque les concurrents économiques européens ont évoqué au sein de l’OCDE et des G20 des projets de taxation qui visaient en fait des instruments de l’empire américain McWorld. Est-ce aux réseaux sociaux de contrôler l’État ou à l’État de contrôler les réseaux sociaux ? En réalité, s’il est vrai que les entreprises digitales ont une nette préférence, comme la quasi-totalité des journalistes, des stars et du deep state américain – CIA-NSA et lobby militaro-industriel interventionniste compris – pour les démocrates américains, on observera que les Gafam ont attendu d’être certains de la défaite de Donald Trump pour supprimer ses comptes Twitter, Facebook et Instagram, et qu’au début, le Président américain le plus combattu de l’Histoire par l’establishment américain a tout de même pu arriver au pouvoir et « gouverner » à coups de messages tonitruants envoyés sur les réseaux sociaux... L’État a en réalité toujours les moyens de contrôler ces réseaux s’il dispose en son sein d’une majorité suffisante pour le faire. En contrôlant les deux chambres, Biden pourrait réaliser ce que Trump n’a pas pu obtenir. L’Europe, dans ce cas, emboîterait le pas aux États-Unis. Une méthode pour l’administration Biden serait d’imposer aux réseaux sociaux une « éthique citoyenne » et une pratique de l’autocensure au service des principaux projets de son gouvernement : lutte contre les propos haineux, mais aussi information orientée en direction de certains sujets d’intérêt global tels que la lutte contre le réchauffement, et les discriminations. Ces sujets, déjà bien intégrés dans les agendas de grandes firmes (voir le concept de responsabilité sociale des entreprises), pourraient dans ce cas être imposés à l’ensemble des agents économiques dans le cadre d’une communication institutionnelle coordonnée imposant la transition numérique aussi bien que la transition écologique et la préparation aux prochaines pandémies. En conséquence, certains États, dont la France, essaient d’instaurer un premier niveau de taxation sur le chiffre d’affaires en attendant un cadre plus structurant au sein de l’Union européenne ou de l’OCDE. L’Europe est en première ligne sur ce dossier, et des pays comme la France ont proposé de taxer les Gafam sur le chiffre d’affaires réalisé dans le pays où ils travaillent. Certes, une taxe sur le chiffre d’affaires est très différente d’un impôt sur les profits, et en matière fiscale, l’Union européenne a besoin de l’accord unanime de tous les États membres. Or certains pays qui ont tout à gagner en accueillant les Gafam – comme le Luxembourg, l’Irlande et plusieurs États d’Europe centrale et orientale 40 – ne voteront jamais une telle disposition fiscale. En ce qui concerne les États-Unis, l’administration Biden a récemment rouvert le débat de la taxe Gafam. Washington propose ainsi de créer une taxe internationale sur les géants du numérique qui reposerait sur les revenus nets. Signe fort de sa détermination à remettre les géants du digital au pas, la nomination de la juriste Lina Khan à un poste de commissaire à l’autorité américaine de la concurrence (FTC), connue pour être très critique à l’égard des positions monopolistiques des Gafam, ne trompe pas. Et les pays de l'OCDE sont en train de se mettre d'accord sur cela. Notre thèse est qu’il y a bien une reprise en main de la finance et du numérique par les États, mais qu’elle passe par un bras de fer et probablement une alliance entre les deux qui a comme préalable un « recadrage » des multinationales digitales et qui pourrait relancer la croissance. Dans la mesure où la baisse séculaire de la croissance est due à l’absence d’innovations majeures comparables à celles des première et deuxième révolutions industrielles qui ont multiplié par dix, voire par cent, la productivité grâce à l’énergie du charbon, puis du pétrole et à la mécanisation, et sachant que les énergies alternatives comme l’hydrogène, l’éolien ou le solaire sont surtout des technologies de substitution qui n’augmenteront pas très rapidement la productivité, les vrais vecteurs d’une augmentation de la productivité seront les domaines de l’information, de l’intelligence artificielle, de la blockchain, de l’ordinateur quantique et des biotechs. Ce qui leur manque, c’est une cohérence, or celle-ci passe par un modèle centralisé inhérent à l’autorité publique, qu’il s’agisse d’États, d’unions régionales d’États ou de confédérations. Bref, c’est l’État stratège et la puissance souveraine qui, si possible en coopération avec les FMN ou en les recadrant, comme l’a fait la Chine, seront les acteurs majeurs de la relance dans les années à venir, d’autant que l’État demeure, comme on l’a vu avec la crise sanitaire, le seul protecteur de la sécurité et des droits des citoyens. 1. Henry Kissinger, L’Ordre du monde, Paris, Fayard, 2016, p. 327. 2. Bertrand Badie, Un monde sans souveraineté. Les États entre ruse et responsabilité, Paris, Fayard, 1999. 3. Les firmes multinationales/transnationales sont des sociétés privées ou publiques déployées via des filiales sur au moins deux pays ou continents. 4. Classement disponible sur le site de Forbes : www.forbes.com. 5. « Les entreprises de taille intermédiaire concentrent 45 % de l’emploi sous contrôle étranger en France », Statistiques Insee, 5 novembre 2019. 6. Le TTIP en anglais, ou traité de libre-échange transatlantique, est un projet d’accord commercial entre l’UE et les EU créant une zone de libre- échange ou grand marché transatlantique (GMT). En avril 2019, le Conseil de l’UE a autorisé la Commission européenne à ouvrir de nouvelles négociations commerciales avec les EU plus limitées que le projet initial. 7. Cnuced, Rapport sur l’investissement dans le monde, 2020. 8. « Entreprises multinationales et intégrité publique : le rôle des principes directeurs de l’OCDE », communiqué de l’OCDE, mai 2002. 9. « Gafa : l’UE a perdu 5,4 mds de revenus fiscaux », Le Figaro, 14 septembre 2017. 10. « L’évitement fiscal des multinationales en France : combien et où ? », La Lettre du CEPII, juin 2019. 11. « GAFA, GAFAM ou NATU : les nouveaux maîtres du monde », La Finance pour tous, 1 er décembre 2020. 12. S. O’Dea, « U.S. Smartphone Subscriber Share by Operating Platform 2012-2020 », Statista, 25 novembre 2020. 13. Alexandre Baradez, « Google, Amazon... les Gafa sont au plus haut en Bourse, gare aux déceptions ! », Capital, 20 avril 2020. 14. Philippe Bernard, « Les Gafam défient désormais les principaux États du globe. Et ces derniers contre-attaquent », Le Monde, 24 septembre 2019. 15. « Ces incroyables profits d’Amazon pendant la pandémie », Capital, 31 juillet 2020. 16. La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée et fonctionnant sans organe central de contrôle. 17. Stéphane Berlot, « Les dangers d’engranger de la cryptomonnaie », Les Échos, 12 juin 2018. 18. CoinMarketCap : fournisseur de données de cryptomonnaies de référence mondial, https://coinmarketcap.com/. 19. OCDE, Manuel de sensibilisation au blanchiment de capitaux et au financement du terrorisme à l’intention des contrôleurs des impôts, Paris, OCDE, 2019. 20. CAT, Compte-rendu de la conférence internationale sur le terrorisme, op. cit 21. Sead Fadilpašić, « Le cas incroyable de Quadriga : faux comptes et millions de dollars de perdus », Cryptonews.com, 25 juin 2019. 22. Gérald Fillion, « Le risque réel des cryptomonnaies », Radio-Canada, 5 février 2019. 23. La blockchain peut permettre de tracer les vrais médicaments, identifier les faux, inscrire la propriété intellectuelle, fixer des œuvres originales (NFT), servir de registre mondial de propriété foncière, de registre d’inscription de la preuve (Afro), de jeton de téléphone mondial (Elya), de monnaie des objets connectés (Iota), utiliser l’intelligence artificielle pour engendrer une épargne automatisée (Peculium, PCL), et servir de monnaie commune aux grandes fraternités (World Masonic Coin Solidus, WMCS). 24. Kévin Comitogianni, « Le Bitcoin, une valeur refuge au Venezuela », Cryptonaute, 18 septembre 2020. 25. « La course aux cryptomonnaies d’États est lancée », The Conversation, 7 janvier 2020. 26. « Libra : l’UE fait bloc contre le projet de monnaie virtuelle de Facebook », Le Figaro, 8 novembre 2019. 27. « La BCE intensifie ses travaux sur un euro numérique », communiqué de presse de la BCE, 2 octobre 2020. 28. Gilles Babinet, « La fin de l’État-nation ? Partie 2, les méta-plateformes au service du bien commun », Institut Montaigne, 30 novembre 2018. 29. « Facebook victime d’un énorme piratage, 50 millions de comptes touchés », La Tribune, 28 septembre 2018. 30. Sam Schechner et Mark Secada, « You Give Apps Sensitive Personal Information. Then They Tell Facebook », The Wall Street Journal, 22 février 2019. 31. CAT, Compte-rendu de la conférence internationale sur le terrorisme, op. cit. Voir www.consilium.europa.eu/fr/policies/fight-against- terrorism/counter-terrorism-coordinator/. 32. En 2015, le prince saoudien Al-Walid ben Talal est devenu le deuxième actionnaire de Twitter, dépossédant le P-DG de la société Dorsey. 33. « 5G Economy to Generate $13.2 Trillion in Sales Enablement by 2035 », Qualcomm, 7 novembre 2019. 34. Source : Banque mondiale, voir site officiel de l’organisation : donnees.banquemondiale.org. 35. Créée en 1952, la National Security Agency est une des 17 agences de renseignements américaines. Elle a inauguré fin 2013 un data center à Bluffdale (Utah), le plus grand centre d’interception des communications du monde. Avec 10 000 employés et un budget annuel de 10 milliards de dollars. 36. Edward Snowden, ex-consultant de la CIA et de la NSA, a révélé que l’agence espionnait illégalement les Américains et le monde via la surveillance d’Internet, des téléphones et de tous les moyens de communication (Prism), via Facebook, Google, YouTube, Twitter, Instagram scannés par ses méga-ordinateurs. 37. Kristalina Georgieva, « Decelerating Growth Calls for Accelerating Action », 8 octobre 2019, voir site du FMI 38. Claire Jenik, « Quels pays ont banni Huawei de leur territoire ? », Statista, 20 mai 2019. 39. Tristan Gaudiaut, « Les BATX font trembler les GAFA », Statista, 12 décembre 2020. 40. Jean-Marc Sylvestre, « Les GAFA sont devenus tellement puissants qu’ils sont capables de résister à tous les pouvoirs politiques », art. cit. CHAPITRE XIII Crise sanitaire et biotech, l’Europe déclassée ? « La crise due au coronavirus est la première d’un monde postaméricain. » Thomas Gomart La crise sanitaire a touché l’ensemble de la planète. Elle a suscité des réponses nationales non concertées et encouragé les logiques nationales et souverainistes. Elle a accentué la tendance mondiale au multipolarisme puis renforcé le discrédit du multilatéralisme. La pandémie a déjà secoué l’ensemble de la politique et de l’économie mondiales après être sortie de son berceau sino-asiatique. Peu d’événements ont bouleversé le fonctionnement global du monde comme l’a fait cette crise. De plus, la propagation de la Covid a provoqué un électrochoc dans les circuits de la mondialisation avec le ralentissement du commerce international, l’effondrement des économies, la prise de conscience des trop fortes interdépendances créées par la globalisation et le déclassement des économies industrielles occidentales par l’usine du monde chinoise. La pandémie planétaire a eu et continuera d’avoir pendant des années des conséquences géopolitiques majeures. Certains disent qu’il y aura un avant- et un après-Covid-19. En réalité, du point de vue des rapports de force géopolitiques et économiques mondiaux, la crise sanitaire n’aura fait qu’accentuer les grandes tendances observables depuis deux décennies. Elle a été à l’égard de la multipolarisation en cours, à la fois un test et un révélateur pour les nations et les institutions : la Chine « total-capitaliste » (Baverez), sortie vainqueur du fléau sanitaire, qu’elle aurait pourtant transmis à l’humanité – faute d’avoir averti ses partenaires et d’avoir respecté les normes de sécurité des laboratoires P4 de Wuhan 1 –, poursuit sa marche vers l’hyperpuissance. Le multilatéralisme est plus en crise que jamais, et pas seulement l’OMS ou les Nations unies. La Russie et l’Amérique (puis l’Otan) sont toujours à couteaux tirés, les États-Unis et la Chine en marche vers une guerre froide du troisième type. Ils s’accusent mutuellement d’avoir créé ou laissé s’échapper le coronavirus, dans le cadre de ce que des experts ont qualifié d’expériences de modifications de virus en vue de recherches sur les vaccins ou même sur les armes biologiques. Toujours est-il que les puissances émergentes d’Asie ont démontré une supériorité en matière de gestion de la crise, d’efficacité technologique et organisationnelle. Elles continuent d’être l’épicentre de la nouvelle « économie- monde », pendant que l’Occident – réputé à la pointe du progrès et de la bonne gouvernance, mais zone la plus touchée au monde par le virus – poursuit (Europe en tête) son décrochage économique, technologique et géopolitique. Les sommets du G7 et de l’Otan de juin 2021 ont semblé annoncer une reprise en main occidentale et une volonté de relever le défi chinois, clairement désigné par Joe Biden, mais l’avancée industrielle chinoise est difficilement conjurable. La gestion bien plus rapide et efficace de la crise sanitaire par les puissances industrielles et technologiques asiatiques a poussé certains à conclure que l’Occident – surtout la vieille Europe – risquait de plus en plus d’être déclassé, tant du point de vue économique que technologique et scientifique, par les pays de tradition néo-confucéenne holistique, et donc pas seulement par la Chine dictatoriale. L’Asie confucéo-taoïste et industrielle a démontré qu’elle a été plus à même que les démocraties libérales occidentales de faire face à des crises imprévisibles comme la pandémie de la Covid-19. La plus grande propension de ses élites à mener des politiques d’anticipation comme des stratégies de long terme a donné des leçons de vertu et de responsabilité aux démocraties de l’Union européennes engluées dans leurs agendas électoralistes de court terme, paralysées par leurs lourdeurs bureaucratiques et inhibées par leurs états d’âme droits-de-l’hommistes et leur individualisme forcené qui confine parfois à l’anarchie au détriment de l’intérêt général et national. En effet, les pays de l’UE, dont les trois sacro-saintes libertés fondatrices sont celles de la circulation des biens, des personnes et des capitaux, ont été les derniers États à fermer leurs frontières, et ils ont été encore plus lourdement contaminés que l’Inde, les États-Unis et le Brésil, en proportion, faute d’avoir osé rompre leur dogme de « l’ouverture » à la mondialisation, à l’évidence pourtant pas toujours « heureuse ». Inversement, l’Asie « holiste », qui fait primer le groupe sur l’individu et l’efficacité sur la liberté, a été bien plus réactive, bien plus efficacement et plus rapidement que les démocraties libérales occidentales. En Occident, les pays anglo-saxons, qui se sont relevé plus vite que l’Europe de la crise, ont fermé leurs frontières et ont, à la différence de l’Union européenne, privilégié leurs nationaux et vacciné ces derniers de façon bien plus rapide que les pays de l’UE : au moment où ce livre était terminé, le 8 juillet 2021, en France 35 millions de personnes avaient été primo-vaccinées (52,75 %) et 26,35 millions avaient reçu toutes les doses (39,33 %). Des pourcentages similaires à l’Allemagne, l’Espagne, l’Italie, etc. À la même date, le Royaume-Uni comptait 45,6 millions de primo-vaccinés (68,4 %), et 34,2 millions de pleinement vaccinés (51,3 %). L’un des pires élèves de l’Union a été sans surprise la Bulgarie, avec 14,2 % de primo-vaccinés et 12 %... Ce retard des pays de l’UE (excepté les pays scandinaves) par rapport aux voisins brexiteurs s’explique notamment par les lenteurs inhérentes à la bureaucratie bruxelloise et aux prises de décisions à 27 : l’Union a ainsi perdu un mois pour autoriser les vaccins, début janvier 2021, puis un autre à cause d’une désorganisation massive dans la distribution. Le système britannique peu bureaucratique a été en fait bien plus efficace que l’UE pour accorder les autorisations, s’approvisionner en vaccin et déployer rapidement les centres. D’autres pays anglo-saxons comme la Nouvelle-Zélande, qui ressort presque indemne de la crise, avec 11 morts seulement, ou l’Australie, également très peu touchée par la pandémie, l’ont bien mieux combattue que les États providences et ouverts de l’UE : outre leur moindre intégration à la mondialisation et leur éloignement des autres continents développés, leur recette a été la même que les pays nationalistes d’Asie : fermeture des frontières ; isolation drastique des clusters dès le départ, fermeture des aéroports à tous les non-vaccinés. Une recette qu’un seul pays européen, de tradition politique anglaise, Malte, a appliquée (en plus de ses 68 % de pleinement vaccinés). A contrario, l’Europe altruiste, qui avait fourni une partie de ses stocks de masques à la Chine au début de la crise et qui a refusé tant qu’elle a pu de fermer ses frontières par dogme mondialisant, a payé le plus lourd tribut au niveau mondial. État des lieux et chiffres Selon le Congressional Research Service (CRS 2 ), et d’après des études de la fondation Bill Gates, qui travaille étroitement avec l’OMS sur la gestion des pandémies, le coût de la crise due à la Covid-19 pour le monde entier était estimé au moment de la rédaction de cet ouvrage à 30 000 milliards de dollars et 120 millions de pertes d’emploi 3 . Pour le cofondateur de Microsoft, qui avait d’ailleurs averti dès 2015 quant au risque de pandémie mondiale, ce chiffre colossal aurait été bien moindre si les gouvernements avaient anticipé de façon plus responsable. Le milliardaire préconise depuis des années de créer une « force de réaction rapide » de 3 000 professionnels répartis dans le monde, des « pompiers de la pandémie » en alerte en permanence et capables de répondre dans l’urgence à une nouvelle crise sanitaire et de l’éteindre à son début. Il appelle à se préparer aux prochaines pandémies, comme on se prépare à une guerre, ce qui implique d’investir des dizaines de milliards de dollars chaque année afin de « sauver des milliers d’autres milliards » comme on vient de le faire, faute d’avoir pris les mesures nécessaires. « Nous ne pouvons pas nous permettre d’être à nouveau pris au dépourvu. La menace de la prochaine pandémie pendra toujours au-dessus de nos têtes – à moins que le monde ne prenne les mesures pour l’empêcher [...]. Je pense que c’est la meilleure et la plus rentable des polices d’assurance que le monde puisse se payer 4 . » Diabolisé par les complotistes de tout bord, notamment en raison de ses positions provaccins, Bill Gates avait toutefois émis le même diagnostic que celui des services de renseignements américains et français entre 2005 et 2009. Comme pour les maints autres avertissements concernant l’islamisme, l’immigration, le terrorisme ou les mafias transnationales, les services de sécurité n’ont une fois de plus pas été écoutés par les élites politiques dont les décisions sont motivées en premier lieu par les lobbys financiers, les conseils en « Com », et les émotions portées par les médias jugées électoralement utiles... La crise de la Covid-19, vite devenue « 21 », avec ses moult variants, a mis à jour les manques de solidarité dans l’ensemble du monde et l’impréparation des dirigeants des pays les plus avancés, notamment en Occident. En dépit des très nombreux accords internationaux, de règles communes dans le domaine sanitaire, et du rôle supposé responsable d’institutions comme l’OMS, la coopération a été plus que mauvaise entre les États qui ont globalement adopté des logiques strictement nationales et tenté chacun de son côté d’accumuler médicaments et masques, parfois par des moyens peu déontologiques. L’Occident – Europe en tête – a abandonné sa souveraineté en matière de médicaments en conséquence des nombreuses délocalisations au profit de la Chine, devenue aujourd’hui le producteur de plus de 80 % des principes actifs, l’Union européenne étant presque totalement dépendante des productions chinoises ou indiennes. Il en va de même pour les masques : la Chine détient plus de la moitié de la capacité de production mondiale, avec plus de 200 milliards d’unités exportées en 2020 ! Le dirigeant chinois Xi Jinping a ainsi exploité au maximum la « diplomatie des masques » pour démontrer son poids géopolitique au niveau mondial avec une capacité de production supérieure à n’importe quel autre pays. La Chine possède également trois vaccins et en est le premier producteur, avec 33 % de la production mondiale devant les États-Unis (27 %). Elle les exporte dans de nombreux pays d’Afrique, d’Asie, du Moyen-Orient ou d’Amérique latine. Certains ont rétorqué que les vaccins chinois sont peu efficaces, que l’OMS a mis du temps à les valider, mais personne ne dispose du recul nécessaire pour affirmer qu’ils ont été moins protecteurs que les équivalents occidentaux, d’autant que si les sérums chinois ne semblent efficaces qu’à 50 % contre les nouveaux variants de la Covid-19, ils protègent apparemment à 100 % contre les formes graves. Toujours est-il que la Chine s’est relevée de la crise sanitaire plus efficacement et plus rapidement que tous les pays occidentaux. Et la plus grande efficacité des vaccins de l’industrie Big Pharma occidentale à virus actifs ou à ARN, quant à eux hâtivement homologués par les gouvernements, n’a pas plus été démontrée que ne l’a été l’infériorité supposée des équivalents russes comme Spoutnik ou chinois, comme Sinovac. On a également assisté à une guerre des représentations entre les États-Unis et la Chine, chacune des deux superpuissances accusant l’autre d’être à l’origine de la pandémie, ce qui n’a fait qu’intensifier la guerre commerciale les opposant depuis 2017. Alors que Trump conspuait la Chine communiste, non sans arrière-pensées électorales, Xi Jinping tentait de limiter au maximum la transmission d’informations sur le virus aux partenaires étrangers, cachant même durant plusieurs mois au monde l’ampleur de la menace, ce qui a réduit la préparation des autres pays dans leur gestion de la crise. La rivalité stratégique et géoéconomique sino-américaine croissante a ainsi primé sur un sujet pourtant vital qu’est la santé publique des citoyens des pays du monde entier. De la même manière, la rivalité russo-occidentale a considérablement nui à l’intérêt des citoyens européens. Ces derniers n’ont en effet pas pu s’approvisionner en vaccins assez vite mais, malgré cela, l’Union européenne a refusé d’homologuer le vaccin russe Spoutnik, par logique atlantiste, certes, mais également en raison de la toute- puissance des laboratoires pharmaceutiques mondialisés – principalement anglo-saxons. Rappelons que le marché pharmaceutique mondial, dont les acteurs essentiels sont américains – même s’ils produisent et sous-traitent massivement en Inde et en Chine –, asiatiques, et, dans une moindre mesure, en Europe, représente environ 1 100 milliards d’euros de chiffre d’affaires et que ses dix premières entreprises comptent plus de 800 000 salariés. Les cinq premiers groupes, Johnson & Johnson, Roche, Pfizer, Bayer et Novartis, représentent un quart du marché à eux seuls. Le degré de concentration de ce secteur est illustré par le fait que seule une vingtaine d’entreprises dépasse les 10 milliards de chiffre d’affaires. Par ailleurs, et sans tomber dans les théories conspirationnistes, on peut supposer que le fait que ces firmes aient obtenu une autorisation provisoire de vaccination de masse tant que des traitements ne sont pas disponibles ne les a pas incités à privilégier la commercialisation des médicaments antiviraux, souvent issus de produits déjà existants et donc moins coûteux que les vaccins. Selon certains, les conflits d’intérêts des mondes médical et politique expliqueraient pourquoi les dirigeants occidentaux ont privilégié la piste des vaccins et interdit aux médecins de soigner (décision sans précédent) avec des traitements classiques 5 . On soulignera également l’étonnant refus des instances européennes d’appuyer le projet de vaccin de la start-up biotech française Valneva, qui siège à Nantes, associée à un labo autrichien. Son sérum à spectre large promettait pourtant d’être au moins aussi efficace que ceux de Pfizer, Moderna, AstraZeneca, car capable de stimuler les défenses immunitaires face aux nouveaux variants avec un virus désactivé, mais moins dangereux que les nouveaux vaccins de Big Pharma à virus actif ou à ARN. Ces derniers nécessiteront d’ailleurs des rappels perpétuels au gré des « variants » et leurs effets sur la santé à long terme sont encore méconnus. Initialement bloqué par l’Union – soumise aux pressions des grandes multinationales pharmaceutiques, Valneva s’est donc tournée vers le gouvernement britannique brexiteur – donc pleinement souverain – qui a appuyé les essais cliniques de l’entreprise française et la construction d’une de ses usines en Écosse pour fabriquer son sérum prometteur en masse, que les Français auront donc bien après les Britanniques ! La gestion de la pandémie a rappelé que la mondialisation marchande, même médicale, est d’abord un théâtre de guerre économique et de rivalités, et que les logiques nationales sont souvent plus efficaces que celles du multilatéralisme ou du supranationalisme (OMS, ONU, UE). Pour ce qui est de la limitation de l’expansion du virus, le souverainisme semble avoir été plus efficace que le sans-frontiérisme européen, et à cet égard, les puissances asiatiques s’en sont sorties beaucoup mieux. Le leader chinois, Xi Jinping, soutenu par l’OMS, et qui a facilité l’élection du directeur général, l’Éthiopien Tedros Adhanom Ghebreyesus, pour certains à la solde de Pékin, en a ainsi profité pour glorifier les « capacités extraordinaires » du Parti communiste chinois et de sa nation, « la seule » capable de gagner la guerre contre le virus, contrairement aux démocraties occidentales engluées dans leurs fractures politiciennes internes. Force est de reconnaître que le système chinois a été capable de réagir très vite et très fort, que ce soit sur le sanitaire comme sur la relance, en remettant tout le monde au travail et en déconfinant plus tôt et plus sûrement. Les pays industrialisés et démocratiques d’Asie, non moins souverainistes, comme la Corée du Sud, Taiwan ou le Japon, ont également été bien plus réactifs que les démocraties occidentales. Certains ont pu ainsi voir dans l’éthique du confucianisme le fondement d’un modèle de société hautement hiérarchisé (discipline, sens du devoir, piété filiale, respect des personnes âgées, humilité) qui continue aujourd’hui de façonner les habitants de Hong Kong, de Taiwan, de Singapour, de la Corée du Sud, du Japon, voire du Viêtnam, et qui pourrait relever les défis modernes évoqués par Bill Gates et les services de renseignements mais que les démocraties libérales devenues libertaires semblent peu à même de régler, faute de discipline, de sens commun et d’autorité... Ces pays de l’ère taoïste-confucéenne et shintoïste ont démontré une incontestable aptitude à la discipline en temps de crise et à la « technologie civique » dans la guerre sanitaire que les peuples du monde entier ont fini par envier. La crise économique est une crise sanitaire D’après les estimations actuelles, le monde traverse la crise économique la plus lourde de l’Histoire. Le PIB mondial a ainsi baissé de 3,2 % en 2020. Les hausses de chômage sont massives dans certains pays : près de 25 % d’augmentation en France, ce qui a propulsé le taux de chômage à plus de 11 %. À la fin de l’année 2020, il y avait près de 600 000 emplois salariés de moins qu’à la fin de l’année précédente 6 . La flambée a été de 50 % au Portugal, le taux de chômage y passant de 6 à 9 %. Le taux de chômage mondial a certes fortement baissé au deuxième trimestre. Mais avec la fin du confinement et la reprise d’un comportement habituel de recherche d’emploi, il a augmenté de 1,9 point au troisième trimestre, passant ainsi à 9 %. Et les phénomènes de « quatrième vague » ou de nouveaux « variants » – brésilien (Gamma), sud-africain (Bêta), britannique (Alpha), indien (Delta), ou encore Lambda, Epsilon –, couplés avec la lenteur de la vaccination de masse au niveau mondial et les incertitudes sur son efficacité, rendent l’avenir moins prometteur que ce que l’on a pensé en juin 2020 lorsque certains, notamment le Pr Raoult, affirmaient que le virus était en train de disparaître... D’autant que les vaccins, par ailleurs pas aussi fiables que prévus face aux variants, ne sont devenus massifs que dans les pays développés, ce qui permet au virus de progresser et muter indéfiniment ailleurs. La Covid a provoqué une nouvelle poussée de la pauvreté, comme en Inde, où elle a explosé dans les zones rurales. L’économie indienne, déjà en ralentissement depuis 2017, a été très sévèrement touchée, de sorte que son retard vis-à-vis de son rival et ennemi chinois s’est accentué. La crise sanitaire a mis au chômage 120 millions de personnes et a jeté sur les routes la moitié des 40 millions de travailleurs migrants internes qui ont quitté les centres urbains 7 et ont ainsi contribué à répandre le virus dans les campagnes. Selon les Nations unies, 260 millions d’Indiens pourraient retomber dans la pauvreté (soit quasiment autant que les 271 millions qui en étaient sortis entre 2006 et 2016). Ce retour en arrière pose au pays des défis considérables, en particulier au niveau de la malnutrition. Depuis longtemps, la recherche académique a tenté de quantifier les liens qui existent entre crise économique et conséquences sanitaires. Une étude publiée en 2016 dans la revue Current Epidemiology Reports expliquait que la crise de 2008 avait eu de nombreuses conséquences sanitaires en Europe : augmentation des suicides, baisse de la santé générale perçue, hausse de la mortalité, baisse de la fertilité... D’autres études ont démontré le lien entre la pauvreté (et sa hausse en cas de crise) et les risques de développer un cancer. Une étude publiée dans The Lancet a stipulé que la crise économique de 2008, en fragilisant les systèmes de santé, avait augmenté à près de 260 000 le nombre de morts du cancer dans le monde 8 . Et les conséquences indirectes de la crise sanitaire liée à la Covid pourraient être encore plus douloureuses. Indicateur significatif : le Secours populaire a enregistré une hausse de 45 % de sa fréquentation en 2020. Dès le 23 mars 2020, Santé publique France a lancé l’enquête CoviPrev auprès de 2 000 personnes, afin de suivre leur état psychologique et l’évolution de leurs comportements dans un contexte inédit. Après une semaine de confinement, l’anxiété touchait 26,7 % des personnes interrogées, contre 13,5 % en 2017. Au 1 er avril, la prévalence de la dépression atteignait 19,9 %, soit le double d’une moyenne de près de 10 %. Et jeudi 19 novembre, le ministre de la Santé a révélé que le numéro d’aide mis en place sur ces questions (le 08 00 13 00 00), géré par des associations, recevait « près de 20 000 appels par jour ». Au niveau mondial, l’ONU s’attend à ce que 71 millions de personnes rechutent dans l’extrême pauvreté en 2021, soit la première augmentation dans le monde depuis 1998. Le Dr Andreea Stoian Karadeli, chercheur à l’université de South Wales et au Centre de politique de sécurité de Genève (GCSP), a fait valoir que le manque de confiance et la peur causés par le coronavirus sont pires que le virus lui-même. Cette conscience des effets de la peur est chère aux groupes djihadistes comme l’EI qui ont théorisé l’idée que l’ennemi devait être frappé sur le terrain psychologique en faisant tout pour « jeter l’effroi dans le cœur des mécréants ». Les grandes catégories d’extrémistes – djihadistes, sectes, extrême droite et extrême gauche – ont d’ailleurs tenté de profiter de ce moment pour réactiver les vieilles théories conspirationnistes qui ont prospéré sur les réseaux sociaux au-delà même des sphères « extrémistes » (« démocratisation des thèses complotistes »). Daesh, Al-Qaïda et maintes sectes fanatiques ont présenté le virus comme « une punition de Dieu contre les infidèles ». Des groupes radicaux ont ciblé les Asiatiques, accusés d’être la cause du virus, ainsi que les juifs, qui sont toujours une cible. Les milieux révolutionnaires d’extrême gauche ou anarchistes ont blâmé le système capitaliste et affirmé que le confinement serait le fruit d’un complot gouvernemental visant à priver les gens de leurs libertés, appelant ainsi à attaquer les symboles capitalistes. Géopolitique de la Covid-19 L’échelle de cette crise est si importante que les vaccins sont devenus des facteurs géopolitiques qui définissent les rapports de force entre pays et qui permettent de projeter la puissance souveraine à l’international. Le meilleur exemple a été offert par la Russie de Poutine qui a su instrumentaliser des livraisons de Spoutnik un peu partout dans les pays du Sud et même dans certains d’Europe, dans le but d’améliorer son image (soft power) auprès des élites et des populations. Moscou a privilégié cette action d’influence à l’international à la livraison massive de vaccins à ses citoyens, le but étant de renforcer son soft power dans sa sphère d’influence (Kazakhstan, Kirghizistan, Caucase) et de l’élargir en Amérique latine et au Moyen-Orient. La Chine a adopté une stratégie similaire en exportant ses vaccins (laboratoires Sinovac et Sinopharm, fondés sur une méthode classique à virus désactivé) dans des dizaines de pays, notamment africains – jusqu’à les offrir 9 parfois – mais aussi au Moyen-Orient, particulièrement aux Émirats arabes unis, qui produisent directement sur leur territoire le vaccin chinois Sinopharm. L’Union européenne s’est quant à elle résolument opposée au vaccin russe Spoutnik, privilégiant les fabricants américains ou européens, bien que certains pays européens aient plaidé pour l’introduction rapide des vaccins russes, comme l’Italie ou l’Allemagne. Imitant les responsables de l’UE, l’Ukraine a rejeté le vaccin russe par pur choix idéologique et stratégique, préférant ceux américains ou européens, au détriment des prix plus bas et des intérêts des citoyens/malades eux-mêmes. Toutes les économies et les gouvernements du monde ont été touchés par la crise sanitaire, et ces derniers y ont presque tous répondu par un important soutien budgétaire. En raison des divers plans de relance et de sauvetage des entreprises, la récession provoquée par la pandémie a propulsé la dette mondiale en pourcentage du PIB à un nouveau record de 355 % début 2021, contre 320 % fin 2019. À la suite de l’introduction de mesures de confinement dans le monde depuis mars 2020, le PIB dans la zone OCDE a diminué brutalement de 9,8 % fin 2020, la plus forte baisse jamais enregistrée, nettement supérieure au 2,3 % du premier trimestre 2009, en pleine crise financière 10 . Au Royaume-Uni, le PIB a chuté de 9,8 % sur l’année 2020, tandis qu’en France, la chute a atteint 8,3 %. Les campagnes de vaccination, les politiques de santé et le soutien financier des gouvernements étaient censées, fin 2020, faire augmenter le PIB mondial de 4,2 % en 2021, après une baisse de 4,2 %. La reprise aurait été plus forte si les vaccins avaient déployé rapidement. Les retards dans le déploiement de la vaccination, les difficultés à contrôler les nouveaux foyers du virus, les deuxième, troisième vagues, et autres « nouvelles » mutations du virus ont vite affaibli les perspectives. Le rebond s’est certes confirmé en 2021, mais il a été bien plus fort dans les pays asiatiques qui ont mieux maîtrisé le virus. Quant à la Chine, elle « a mis en œuvre des mesures efficaces lui permettant de connaître un rebond important et surtout durable, le pays aura été le seul à connaître une croissance positive dès 2020 11 ». En ce qui concerne l’Afrique, dans la première phase, elle a été peu touchée par la pandémie. Certains pays africains, comme le Sénégal, l’Afrique du Sud et le Kenya, seront probablement en mesure de faire face à la grave urgence sanitaire. Mais d’autres, comme la Tanzanie, le Mozambique, l’Ouganda, la République démocratique du Congo ou l’Éthiopie, sont particulièrement à risque, tandis que certains États comme la République centrafricaine, la Somalie ou le Soudan du Sud n’ont aucune chance de réagir à une propagation généralisée du virus. Au Maghreb, dix ans après les printemps arabes, les espoirs de transition démocratique portés sur le pays de la révolution du Jasmin, la Tunisie, seul pays arabe qui avait réussi une réelle transition démocratique, risquent d’être balayés par la crise sanitaire. Le pays est sur le point de faire faillite, comme le Liban, et la récession de –8,5 %, couplée au chômage sidéral, à l’opposition entre islamistes et nationalistes, à la faillite du système de santé et à la ruine des finances publiques, risquent de plonger le pays dans le chaos. Les pays producteurs de pétrole ont également été touchés car affectés par la volatilité des prix et variations des marchés. Une économie hydrocarburière comme l’Algérie, pénalisée depuis des années par un prix du baril de pétrole très bas, et qui importe massivement, risque de fortes pénuries. Les monarchies du Golfe et les pays pétroliers d’Afrique ont à leur tour investi très peu dans le secteur de la santé. Dans de nombreux cas – Libye (bombe à retardement compte tenu de la porosité de ses frontières), Syrie (militaires infectés d’Iran et du Pakistan), Yémen (déjà à genoux en raison de la pire catastrophe humanitaire de la planète), on constate un chevauchement géopolitique entre les situations préexistantes (conflits et crises de diverses natures), les effets du virus, les conflits armés en cours et l’urgence virale. L’Inde a quant à elle été touchée d’une manière particulièrement préoccupante en mai 2021 avec 412 000 nouveaux cas en vingt-quatre heures (moyenne de 350 000 à 400 000) et près de 4 000 décès journaliers. À l’opposé de la Chine confucéo-maoïste, l’Inde démocratique, fédérale et ouverte a été incapable de maîtriser la situation par manque de moyens (soins intensifs, oxygène...), et surtout faute d’être dotée d’un système politique suffisamment autoritaire et centralisé pour contrôler la société et une population de 1,4 milliard d’habitants. En Europe, l’Espagne et l’Italie, par exemple, qui sont plus dépendantes du tourisme de masse, ont été plus touchées par la crise que les pays d’Europe du Nord. D’une manière générale, la crise due à la Covid-19 a provoqué une chute spectaculaire des investissements directs à l’étranger (IDE). D’après les chiffres de l’ONU, les investissements directs étrangers dans le monde ont chuté de 42 % en 2020 12 et sont par conséquent passés sous la barre des 1 000 milliards de dollars (environ 850 milliards) pour la première fois depuis 2005. La baisse s’est concentrée dans les pays développés, où les IDE ont chuté de près de 70 % pour s’établir à environ 229 milliards de dollars. La situation est encore plus préoccupante pour les pays en développement, la pandémie ayant entraîné une prudence accentuée des investisseurs. Les pays dépendants de ces investissements ont donc subi une forte baisse des entrées de capitaux. En Afrique, les IDE sont passés de 46 à 38 milliards de dollars, et la baisse des projets sur site vierge dans les pays en développement atteint 46 % et 63 % pour les pays africains. Ces régions sont plus vulnérables parce qu’elles dépendent davantage des investissements et qu’elles ne peuvent pas mettre en place les mêmes mesures de soutien économique que les pays développés. En revanche, les pays asiatiques sont ceux qui ont le mieux résisté, avec une baisse des IDE de seulement 4 %. Au niveau global, l’économie mondiale a reculé de 3,3 % en 2020 13 avec plus de 10 000 milliards de dollars de pertes, selon les estimations du Fonds monétaire international, en raison du confinement et des mesures de restrictions sanitaires dues à la pandémie. Le ralentissement causé par la pandémie n’a fait qu’accentuer un mouvement de croissance négative ou nul initié depuis des années et il a donc aggravé une tendance baissière déjà ancienne. Les flux mondiaux d’IDE vont rester assez faibles en 2021, et les Nations unies prévoient une nouvelle baisse de 5 à 10 % par rapport à l’année écoulée, annonçant la vraie reprise pour seulement 2022, sous l’effet de la restructuration des chaînes de valeur mondiales en faveur d’une plus grande résilience, de la reconstitution du stock de capital et du redressement de l’économie mondiale. Mais tout dépendra de la résolution définitive de la crise sanitaire... En ce qui concerne la croissance du PIB, les dernières estimations du FMI confirment là aussi des inégalités avec, sans surprise, la Chine en tête, cette dernière ayant déjà retrouvé une croissance fin 2020 de 8 %, suivie par les États-Unis (6,4 %, soit une révision à la hausse de 1,3 point par rapport à janvier 2020 due aux plans de relance de Joe Biden), et de la zone euro qui pourrait connaître un rebond de 5,8 %, estimation elle aussi revue à la hausse en raison des retombées bénéfiques pour la zone UE du plan de relance américain. Mais rien de cela n’est certain. L’endettement colossal et le spectre d’une banqueroute de l’économie mondialisée Pour faire face à la pandémie, nombre de pays, notamment industrialisés, ont lancé des plans d’aides massives en vue d’amortir la récession subite. En avril 2020, l’Union européenne a ainsi lancé un vaste plan d’urgence de 540 milliards d’euros. Deux autres instruments de relance ont été adoptés par la suite : un budget 2021-2027 de 1 075 milliards d’euros et un plan de relance de 750 milliards d’euros, réévalué en avril 2021 à 806 milliards d’ici à 2026. Les banques centrales ont donc inondé les marchés pendant que les gouvernements ont renfloué les entreprises fragilisées par la crise, ceci au moyen d’emprunts et donc d’endettements supplémentaires devenus surréalistes. La BCE a joué bien évidemment un rôle clé en rachetant massivement les dettes émises par les gouvernements européens pour rassurer les marchés financiers et permettre aux États de s’endetter à bas coût. Son programme d’urgence face à la pandémie (PEPP), lancé en mars 2021, a atteint le montant astronomique de 1 850 milliards d’euros. Le plan de relance américain a quant à lui mobilisé, tout d’abord sous Donald Trump, à partir de mars 2020, 2 200 milliards de dollars (10 % du PIB), auxquels s’ajoutent 900 milliards adoptés en décembre 2020. Le nouveau Président américain, Joe Biden, a ajouté trois plans de relance supplémentaires : le premier de 1 900 milliards de dollars, adopté en mars 2021 par le Congrès et destiné à stimuler la reprise économique par l’aide aux personnes les plus modestes, l’accélération des vaccins, puis l’aide aux autres secteurs touchés par la crise, financé en grande partie par la dette. Le deuxième plan, destiné aux infrastructures (2 250 milliards de dollars sur huit ans), vise à rénover le secteur des transports, de l’industrie et de la transition énergétique. La mesure phare de ce financement est l’impôt sur les sociétés que Biden, à l’inverse de l’administration Trump, veut augmenter à 28 % contre 21 actuellement, provoquant ainsi l’opposition des républicains et des entreprises concernées. Le dernier plan prévu (1 800 milliards), dédié à l’éducation et l’aide aux familles, devrait être financé par une hausse d’impôt pour les ménages les plus riches. Les deux derniers plans n’ont pas encore été approuvés au moment de la rédaction du livre. Au total, 6 000 milliards de dollars de dépenses ont été annoncées, soit l’équivalent du PIB de la France, de l’Italie et de l’Espagne réunies ! Tous ces plans de relance au niveau mondial n’ont fait que rendre encore plus grave un fléau déjà ancien qui promet de punir les générations à venir : l’endettement endémique qui menace, à terme, le système capitaliste mondial mis en place par les Occidentaux. Depuis les années 2000, en effet, les plus grandes instances internationales, dont la Banque des règlements internationaux (BRI) et l’Institute of International Finance (l’IIF), tirent la sonnette d’alarme sur la situation de la dette mondiale (États, entreprises et ménages réunis), qui, d’après l’IIF, a atteint 281 000 milliards de dollars fin 2020 14 , soit 355 % du PIB mondial ! Pour les seules années 2020 et 2021, le chiffre avancé est de 65 000 milliards de dollars. Et les plans de relance ont accentué un phénomène préexistant : les banques centrales détiennent des parts de plus en plus importantes de dettes souveraines. Le spectre du surendettement est rendu certain par l’augmentation exponentielle des dépenses liées au traitement de la pandémie. À ce rythme, l’IIF évalue l’endettement mondial global à 360 000 milliards de dollars d’ici 2030. Il existe par conséquent une grande incertitude sur la façon dont l’économie mondiale va pouvoir se désendetter dans l’avenir sans conséquences socio-économiques dramatiques pour les populations (austérité). L’endettement asphyxie bien évidemment en premier lieu les pays les plus pauvres. Certains ont déjà déclaré un défaut de paiement (Liban, Venezuela) ou sont sur le point de le faire (Tunisie). La dette du Venezuela et du Liban a déjà atteint 77 700 milliards de dollars en 2020 (contre 55 000 milliards en 2018 15 ), selon l’IIF. Les pays développés sont toutefois à l’origine de la moitié de la progression de l’endettement mondial. La dette publique américaine s’élève ainsi à 23 000 milliards de dollars 16 en 2021, soit 102,3 % du PIB, taux qui va encore augmenter avec les trois plans de relance voulus par Joe Biden (pas encore tous approuvés à la rédaction de l’ouvrage). La dette des firmes américaines a quant à elle littéralement explosé depuis la crise de 2008, pour atteindre 10 600 milliards de dollars 17 , soit la moitié du PIB américain... Concernant la dette totale de la Chine, curieusement rarement évoquée, elle a atteint 40 000 milliards de dollars en 2021, soit 15 % de l’endettement total de la planète, et 335 % du PIB chinois 18 ! Il est certes vrai que le souverainisme chinois couplé à ses excédents commerciaux et à la dépendance du monde industriel vis-à-vis d’elle la prémunissent contre un scénario de banqueroute. Tel n’est toutefois par le cas de la zone euro, dont la dette publique a grimpé en flèche (+1 240 milliards d’euros) en raison des mesures financières pour soutenir l’économie touchée par la pandémie, atteignant ainsi 11 100 milliards d’euros, soit 98 % du PIB, contre 83,9 % en 2019 19 . Par ailleurs, l’augmentation des indicateurs de stress de liquidité du marché des obligations annonce des turbulences sur les marchés mondiaux et une hausse des taux d’intérêt à venir. La conséquence d’une dette élevée et croissante est de réduire l’épargne, d’augmenter les intérêts de cette même dette, de limiter la capacité des décideurs à réagir à des événements imprévus, et d’accroître la probabilité d’une crise financière majeure. Face à cet endettement mondial sans précédent, aucun consensus n’existe parmi les économistes et les gouvernements nationaux quant au montant maximal de dette publique soutenable, pas plus que sur le moment à partir duquel cette dette va inévitablement saper à son tour la croissance du PIB. Dans son rapport paru en avril 2020, le FMI a averti qu’une augmentation des restructurations de dettes et des défauts sera inévitable dans les pays les plus fragiles et que le surendettement des entreprises non financières et des ménages est également extrêmement alarmant, le pire scénario étant une banqueroute générale du système capitaliste libéral. Les mesures d’endettement mises en place pour faire face à la crise sanitaire représentent donc un risque majeur, d’autant que de nombreux autres signaux sont préoccupants pour la stabilité financière mondiale, que ce soit l’hyperinterventionnisme des banques centrales, le niveau élevé des indices boursiers, la volatilité des actifs, le risque d’éclatement des bulles immobilières et boursières, ou encore l’endettement des sociétés non financières. S’ajoute à cela la guerre commerciale sino-américaine qui n’augure rien de bon pour l’économie et la stabilisation des marchés et pour le multilatéralisme... La France et l’Europe au bord de la faillite ? En juillet 2021, la dette publique française s’établissait à 2 700 milliards d’euros, soit 177 % du PIB 20 . D’après un scénario émis par le rapport Arthuis 21 , avec 10 % de déficit, et sur la base d’une croissance économique à 1,5 % en moyenne, l’endettement de la France devrait ainsi s’élever à 128 % du PIB d’ici 2030, certes à politique inchangée. Il est vrai que Paris connaît un déficit annuel depuis... 1974, et à partir de cette date, même les meilleures années se sont terminées par des déficits. La France était déjà parmi les mauvais élèves de l’Europe bien avant la pandémie, mais elle a aggravé son cas en mettant sur la table des centaines de milliards d’aides publiques afin de renflouer les entreprises les plus touchées par la crise. En font partie aussi les interventions directes en capital pour les entreprises en difficulté, ainsi que les dispositifs de garanties en faveur des prêts bancaires aux entreprises et de l’assurance-crédit, soit un total d’intervention d’environ 470 milliards d’euros. Comme l’a expliqué Marc Touati : « En 2020, pour la première fois de son histoire, la France est devenue le premier contributeur de la dette publique de l’ensemble de la zone euro. La part de la dette publique française dans cette dernière est désormais de 24,1 %, contre 23,1 % 22 . » Or la croissance diminue en parallèle de l’augmentation de la dette... L’économie française va donc mal, le chômage augmente (le secteur des services s’est effondré avec les confinements), comme la précarité, avec le risque de crises sociales, ethnocommunautaires et donc de violences en zones sensibles. Dans les pays où les systèmes de protection sociale sont encore faibles ou presque inexistants, comme dans les sociétés anglo-saxonnes, en Espagne, en Allemagne, ou dans certains pays de l’Europe orientale et centrale, ces conséquences risquent d’être encore plus dramatiques socialement qu’en France, en l’absence d’amortisseurs sociaux puissants et de redistribution efficiente. Marc Touati alerte également sur les obligations d’État : « La bulle des obligations d’État [...] se traduit par une baisse des taux d’intérêt des bons du Trésor et donc une flambée du cours de ces derniers, en dépit de l’accroissement permanent de la dette [...], même si l’État vendait ses trésors ou une partie de son patrimoine, il ne parviendrait pas à rembourser ses dettes, l’actif de l’État français étant globalement négatif. » Un krach obligataire est donc fort probable, les taux d’intérêt sur les obligations de l’État pouvant augmenter et donc entraîner une perte de confiance des investisseurs internationaux qui, pour accepter de financer la dette, imposeraient des primes de risques ou taux d’intérêt très élevés, ce qui obligerait le pays à s’endetter sans fin... La Cour des comptes a dévoilé plusieurs scénarios de sortie de crise pour l’économie française. Le premier (positif), dit de « rattrapage 23 », prévoit une relance assez rapide de l’activité, bien qu’il faille au moins trois ans pour que la France retrouve sa situation d’avant crise, avec une croissance potentielle de 1,25 % par an sur la période. Dans ce scénario, le fonctionnement de l’économie ne serait que temporairement altéré et les capacités de production sortiraient indemnes de la crise, la dette devant même baisser légèrement. Le deuxième (défavorable) est celui d’une « perte limitée », c’est-à-dire un PIB qui retrouve son niveau d’avant crise mais sans pouvoir récupérer les pertes dues aux faillites d’entreprises et le report de projets d’investissements. Le bilan s’élève à plus de deux années de croissance perdues à cause de la pandémie. Enfin, le troisième dépeint une « faiblesse persistante » avec une relance de l’activité plus faible que prévu et des investissements affectés sur le long terme, ce qui ferait diminuer le taux de croissance sur plusieurs années avec un PIB remontant bien plus lentement que souhaité. La dette augmenterait alors jusqu’à 140 % du PIB dans les dix prochaines années. Le nombre de chômeurs et de travailleurs précaires exploserait, le climat politico-social se dégradant de plus en plus, augmentant le sentiment d’inquiétude et l’éventualité de soulèvements... Explosion de la dette et risque d’implosion de l’euro La question de l’annulation de la dette souveraine française par la BCE se fait de plus en plus entendre, phénomène qui se produit déjà en Europe pour nombre de nations, mais on peut aisément imaginer qu’il y a une limite à l’action de la BCE et qu’elle ne va pas pouvoir racheter les dettes infiniment. Il est clair qu’elle devra un jour réduire, voire arrêter, sa « distribution » de capitaux, en partie sous la pression de l’Allemagne. La France subira alors une forte augmentation des taux d’intérêt de ses obligations d’État. Marc Touati estime que « dès lors, même si la BCE et Angela Merkel ont réussi à calmer le jeu temporairement [...], le rachat des dettes souveraines par la BCE finira par devenir illégal en Allemagne. Et ce, a fortiori lorsque Angela Merkel ne sera plus chancelière, à l’automne 2021. Cela relancera immanquablement la crise de la dette publique, qui, ne l’oublions pas, n’est qu’endormie depuis 2015 et n’attend qu’un prétexte pour se réveiller avec pertes et fracas 24 ». En plus d’engendrer un krach obligataire et boursier international, « ce scénario viendra également réactiver la crise existentielle d’une zone euro qui est toujours aux abois. Ce qui alimentera de nouveau la hausse des taux d’intérêt obligataires et relancera la récession ». L’opposition structurelle entre l’Europe du Nord, riche, bien gérée et peu endettée, favorable à un « euro fort », et l’Europe du Sud, paupérisée, surendettée et mal gérée, deviendra intenable et menacera la survie même de l’UE. La Commission européenne a estimé qu’il faudra au moins deux ans pour se remettre de la crise sanitaire. D’autres experts parlent plutôt d’un cycle de dix ans... Or certains pays comme l’Espagne ou l’Italie ne possèdent pas de manœuvre budgétaire à la hauteur de la crise. D’après Marc Touati, « l’Union économique et monétaire telle que nous la connaissons aujourd’hui aura disparu avant 2022. Cela ne signifiera d’ailleurs peut-être pas la fin de l’euro, mais l’avènement d’une zone monétaire plus restreinte, avec une vraie intégration, une véritable union fédérale, des règles strictes et une entraide à toute épreuve 25 ». L’éradication du virus étant plus laborieuse que prévu, les perturbations de l’économie seront plus durables en Occident et partout en dehors de la zone asiatique. Nous assistons de la sorte à la récession la plus sévère jamais connue depuis l’entre-deux-guerres, en temps de paix. L’arbitrage qui a été fait au profit de la santé – après des années de réductions folles des personnels de santé et de nombre de lits d’hôpitaux – au détriment de l’économie et au prix d’un méga-endettement – avec les multiples confinements – va avoir des conséquences désastreuses dont on ne perçoit pas encore les manifestations les plus chaotiques. In fine, ce seront les citoyens qui paieront la facture, en particulier les épargnants et les retraités. Jusqu’à peu, la crise financière avait été noyée et différée artificiellement par les flux de liquidités injectées par les banques centrales, mais une fois que les solutions d’assistanat auront été épuisées et que l’endettement endémique aura conduit à la banqueroute et/ou à une austérité difficilement supportables pour les peuples, avec son corollaire de surtaxations et de spoliations possibles des rentiers (spectre des bail-in, comme à Chypre après la crise de 2008), l’heure des grandes secousses et des confrontations interétatiques et infra-étatiques sonnera le glas de la « mondialisation heureuse » et du multilatéralisme. Perdants et gagnants de la crise sanitaire Les grands gagnants de la crise sanitaro-économique sont les multinationales de l’Internet (WebSoft/Gafam), le monde de l’entertainment, les producteurs de jeux vidéo, et, d’un point de vue stratégique et géoéconomique, la Chine et les économies industrielles d’Asie en général. Le chiffre d’affaires du commerce en ligne des multinationales digitales, dont Amazon représente plus d’un tiers, a bondi de 17,5 % et son bénéfice net de 15 %. La grande distribution (surtout alimentaire) a profité de cette tendance avec une hausse de 8,5 % des recettes et de 18,4 % du bénéfice opérationnel, voire +40 % pour Walmart ou Carrefour. Les ventes en ligne de la grande distribution ont également progressé de 115 %. Les sociétés de paiements électroniques sont donc également gagnantes, tout comme les télécommunications et les réseaux de distribution on-line et à domicile et autres livreurs. Après l’apparition de la Covid-19, en effet, de nombreux gouvernements, citoyens et acteurs des Gafam ont considéré les paiements numériques comme un moyen efficace d’effectuer des transactions tout en réduisant le risque de propagation du virus. Sans surprise, si 2020 a été la pire année pour les commerces de proximité, l’hôtellerie, la restauration et les transports internationaux aériens et ferroviaires, elle a été l’année de gloire pour les Gafam. Le confinement et les mesures de prévention de l’épidémie ont en effet constitué un terreau de croissance idéal pour les géants du numérique. Ils ont profité de l’essor du télétravail, de l’e-commerce et du divertissement digital pour afficher des ventes records, qui ont bondi de 18 % au premier trimestre 2020 avec une hausse de 31 % du bénéfice par rapport à la saison précédente. Entre avril et décembre 2020, les Gafam ont augmenté de 45 % leur chiffre d’affaires (CA) cumulé 26 . Amazon a été le grand gagnant, avec un CA en hausse de 40 % (89 milliards de dollars) et un bénéfice net qui double à 5,2 milliards au deuxième trimestre 2020 27 . D’après un rapport de l’Oxfam 28 , les bénéfices réalisés pendant l’épidémie par 32 multinationales (américaines pour la plupart, dont les Gafam) se sont accrus de manière significative. Comparativement à sa marge bénéficiaire pré-Covid, Microsoft a ainsi réalisé près de 19 milliards de dollars de profits supplémentaires, Google plus de 7 milliards et Amazon, Apple et Facebook plus de 6 milliards chacun. Le secteur de la « tech » est particulièrement représenté dans la liste, avec, outre les Gafam, les américains Intel (8,2 milliards de dollars de bénéfices supplémentaires), Cisco Systems (3,2 milliards) et Oracle (1,9 milliard). Le secteur de l’électronique (Apple, Samsung, Dell...) a également profité de « l’accélération numérique », du télétravail et de l’enseignement à distance (CA en hausse de 5,5 % et un bénéfice opérationnel augmentant de 17 %), et va continuer à progresser avec l’arrivée de la 5G qui devrait accroître encore plus la demande de smartphones, en léger recul en 2020. Le secteur pharmaceutique est également l’un des grands vainqueurs naturels de la crise sanitaire, même si les ventes dans ce secteur ont augmenté au départ de façon modeste, en 2020 (3 %) et début 2021, avec un bénéfice opérationnel en hausse de 1,4 %, pour Johnson & Johnson, Roche, Bayer, notamment. L’augmentation des ventes, soutenues au départ par les médicaments et tests pour la Covid, est logiquement devenue massive avec la commercialisation des vaccins en 2021. Pfizer annonce ainsi une prévision de CA en 2021 à 33,5 milliards de dollars et Moderna à 19 milliards de dollars. Les profits des géants américains Merck et Johnson & Johnson sont aussi en hausse (+4,9 milliards de dollars pour l’un et +3,1 milliards de dollars pour l’autre) 29 . Les fabricants de masques et de gel ont quant à eux enregistré une véritable explosion de leurs ventes, avec une prédominance escomptée des industries chinoises. Les grands perdants sont le transport, l’industrie automobile, les constructeurs d’avions, les secteurs pétroliers et de l’énergie en général, ceux de la mode, de l’assurance et, bien sûr, du tourisme. Ainsi, le chiffre d’affaires du secteur pétrolier (Aramco, Shell, BP...) a chuté de 32,9 % et son résultat opérationnel de 85 %, en raison de l’effondrement des cours et de la baisse de la demande de pétrole de 9 % en 2020. La faiblesse de la demande d’énergie risque d’ailleurs d’être prolongée de quelques années avant de redémarrer ensuite grâce à la démographie mondiale, notamment, et en raison de la lenteur de la transition énergétique, certes engagée dans maints pays. En 2020, les ventes de l’industrie automobile (Fiat Chrysler, PSA, Volkswagen...) ont chuté de 12 % et ses marges de 42 %. Seules les ventes de véhicules électriques et hybrides ont tenu la route. Le secteur du tourisme a connu une baisse de 26 % et des pertes opérationnelles énormes. Les ventes du secteur de la mode (LVMH, Adidas...) ont connu une chute de 17,3 %, malgré une hausse de 50 % du commerce en ligne, tandis que les bénéfices opérationnels ont plongé de 47,9 %. Après une embellie au quatrième trimestre 2020, le secteur devrait croître d’environ 14 % en 2021, tiré une fois de plus par le luxe et la demande chinoise. D’après le centre d’études de la banque Mediobanca, trois secteurs vont devoir muter : la grande distribution, le transport et le tourisme, tandis que trois autres vont particulièrement prospérer dans l’ère de l’après-Covid-19 : la santé, les « Big Tech » et le bien-être. Biotech, ordinateurs quantiques, thérapies génétiques : la Chine et l’Asie en voie de déclasser l’Occident ? Lorsque l’Union européenne et les États-Unis ont gravement manqué de masques au début de la crise sanitaire, et lorsque les médias occidentaux ont décrit la façon dont les pays asiatiques – les premiers touchés – ont su très rapidement combattre la pandémie et protéger leurs populations grâce à des moyens technologiques de traçage avancés couplés à des fermetures de frontières, les citoyens et les élites d’Occident ont subitement pris conscience que l’Asie n’était plus seulement une usine mondiale à bas coût. Ils ont compris que, loin de n’être qu’une zone de délocalisation des entreprises occidentales cantonnée à produire et – dans le meilleur des cas – à imiter, l’Asie, Chine en tête, est la plus grande zone d’expansion commerciale, industrielle et technologique du monde, désormais capable de donner des leçons d’efficacité, de modernité et de progrès scientifique aux anciens maîtres occidentaux bientôt déclassés. Les innovations liées aux biotechs, aux nanotechnologies et au biomédical, en pleine expansion, domaines dans lesquels les pays d’Asie sont en passe de dépasser les Européens, représentent, après les technologies de l’information, la prochaine vague de croissance de l’économie des pays avancés, avec de grandes opportunités pour les entreprises et l’emploi 30 . Aussi les acteurs qui auront la plus grande avance dans ces domaines seront-ils en pole position dans la compétition entre puissances, sur les plans économiques, politiques, médicaux et militaires. Or force est de constater que l’Europe, qui accuse déjà un certain retard, faute d’investissements suffisants en R&D en raison des freins éthiques, quasi inexistants en Chine, risque le grand déclassement en laissant de facto le quasi-monopole dans ces domaines aux puissances asiatiques et, dans une moindre mesure, aux États-Unis. Les États encourageant massivement et sans frein ces technologies pourraient accélérer la capacité des laboratoires à développer des thérapies qui améliorent l’espérance de vie et la productivité des travailleurs par exemple. À la différence de la vieille Europe et du monde musulman, la Chine, mais aussi le Japon, la Corée du Sud ou Taiwan, qui bénéficient d’un environnement réglementaire favorable à la fois à la recherche sur les cellules souches et aux essais cliniques, obtiendront des résultats significatifs bien plus rapidement que l’Occident. Ainsi, après avoir formé de nombreux experts chinois et asiatiques, les puissances occidentales risquent de voir cette force se retourner contre eux et de perdre leur avance et leur leadership... Nanotechnologies Les nanotechnologies 31 , les cellules souches, les thérapies génétiques, ou autres biotechs, sans oublier les ordinateurs quantiques, sont à l’origine d’extraordinaires avancées. Ces innovations, combinées aux progrès dans les neurosciences et dans l’intelligence artificielle, vont révolutionner de nombreux domaines : médecine, industrie, défense, énergie. La combinaison de ces technologies pourrait susciter de nouvelles innovations comme les biocarburants synthétiques, les nano-ordinateurs, la robotique à usage militaire et médical, l’extension des domaines de la fabrication 3D à la médecine et à l’alimentation (viandes in vitro). Les pays réussissant à avoir le monopole de ces innovations auront une force technologique majeure et changeront les rapports géopolitiques. Les nanotechnologies, qui concentrent une bonne partie des investissements en R&D et en innovation, sont un enjeu stratégique de compétitivité entre puissances ayant les moyens d’être dans la course. Or l’Occident est en passe de perdre sa domination, notamment dans le domaine des technologies médicinales, au profit des puissances asiatiques, avec en tête la Chine. Le marché mondial des nanotechnologies devrait dépasser 125 milliards de dollars d’ici 2024 32 . La course aux résultats met en scène États-Unis, Allemagne, France, Chine, Japon et Taiwan. Et comme dans presque tous les domaines, la Chine s’est donné pour objectif de devenir leader : elle a connu la croissance la plus rapide de la recherche en nanosciences au cours de la dernière décennie. Parmi les 100 plus grandes institutions de recherche en nanosciences au monde en 2018, la Chine en compte déjà 33, contre 30 pour les États-Unis... L’armée chinoise possède également 6 établissements parmi les 10 premiers au monde, l’Académie chinoise des sciences étant largement en tête du peloton. Sur la période 2012-2017, les universités chinoises ont reçu 500 millions de RMB (près de 80 millions de dollars) pour la recherche sur les nanotechnologies, et l’Académie des sciences chinoise a lancé un programme de recherche stratégique prioritaire sur la nanotechnologie avec un investissement d’environ 1 milliard de RMB, soit près de 155 millions de dollars 33 . Au total, les investissements chinois en R&D sont extrêmement élevés et en constante augmentation. Pour l’année 2019, ils atteignaient 320 milliards de dollars, soit une hausse de 12,5 % par rapport à 2018 34 . Physique et Internet quantique Le grand déclassement des Occidentaux par les Asiatiques concerne également les ordinateurs quantiques, supercalculateurs, très différents des ordinateurs actuels, qui pourraient permettre, dans le futur, d’effectuer des calculs impossibles pour les ordinateurs classiques (simulations pour l’énergie, le climat, la chimie, la médecine). Aujourd’hui, la Chine est déjà leader : elle a récemment atteint le stade de la « suprématie quantique » grâce à un ordinateur de ce type, une avancée qui dépasse toutes les compétences de Google ! Le test qu’auraient fait les Chinois aurait été réalisé avec une vitesse 100 000 milliards de fois plus rapide que l’ordinateur le plus puissant du monde... C’est dans ce domaine que la progression de la Chine a été la plus impressionnante, sachant qu’elle en était totalement absente il y a vingt ans. Médecine régénérative et édition génomique Le même constat vaut pour la médecine régénérative, qui consiste à utiliser ces cellules et des tissus fabriqués à partir de cellules souches dans le but de réparer et régénérer des organes, des tissus ou n’importe quelle autre partie du corps endommagée, mais aussi pour des maladies. La recherche est active depuis de nombreuses années et des essais cliniques ont déjà été réalisés pour le traitement de plusieurs pathologies graves comme les organes abîmés, les cancers, les maladies neurodégénératives, la colonne vertébrale, etc. Alors qu’en Occident, les états d’âme « éthiques » interdisent la culture médicale des cellules souches, ce qui bloque les progrès médicaux en matière de médecine régénérative, la Chine (mais aussi Taiwan), qui n’a pas ces scrupules, en a fait une priorité de la R&D. Ces dernières années, Pékin a financé très massivement les recherches. C’est ainsi que le douzième plan quinquennal (2011-2015) chinois a consacré 3 milliards de yuans (435 millions de dollars) sur les seules cellules souches et la médecine régénérative, et que le treizième plan (2016-2020) a lancé un vaste programme dénommé « Stem Cell and Translational Research » de 2,7 milliards de yuans (423 millions de dollars), consacré aux applications des cellules souches aux maladies neurologiques, vasculaires, du foie et de la reproduction 35 . En 2018, des médecins du Nanjing Drum Tower Hospital à Nankin ont réussi à soigner des patientes atteintes d’insuffisance ovarienne à l’aide de cellules souches et, en 2019, deux hommes ont été les premiers à recevoir un traitement à base de cellules souches « reprogrammées » pour une maladie cardiaque, une première mondiale. L’autre avancée majeure médicale a consisté à associer la médecine régénérative et l’impression 3D. La Chine a ainsi conçu la première bio- imprimante 3D capable de fabriquer des vaisseaux sanguins, mise au point par l’entreprise Sichuan Revotek qui utilise une encre biologique composée des cellules souches prélevées à partir de cordon ombilical humain. Cette technique biomédicale vise à modifier le génome d’une cellule, d’origine végétale, animale ou humaine (modification d’ADN). Les possibilités en fonction de l’avancement de la science sont multiples. Les chercheurs peuvent créer des mutations dans des gènes pour en observer les effets et corriger des problèmes en insérant des fragments d’ADN ou en modifiant des gènes. Là aussi, les avancées sont limitées dans les pays occidentaux qui posent la question éthique des risques d’abus ou tentatives de modifier des êtres humains directement dans leur ADN. Ainsi, lorsque des « bébés transgéniques » ont été expérimentés dans un laboratoire chinois, la communauté scientifique internationale – surtout occidentale – s’indigna quasi unanimement. Le scandale a révélé une fois de plus l’énorme choc culturel, éthique et déontologique qui oppose, d’une part, un Occident rempli de scrupules et de principes de précaution et, de l’autre un régime autoritaire sino-maoïste animé par la seule logique de l’efficacité et de la recherche de la puissance par tous les moyens. 1. Voir la polémique américaine autour des révélations de l’ex-conseiller médical de la Maison Blanche, Anthony Fauci : « États-Unis : le Dr Fauci exhorte la Chine à partager les dossiers médicaux des chercheurs malades de Wuhan », Le Figaro, 4 juillet 2021. 2. Institut de recherche sur les politiques publiques du Congrès des États-Unis. 3. CRS, Global Economic Effects of COVID-19, rapport, avril 2021. 4. « Our Annual Letter. The Year Global Health Went Local », site de la fondation Bill Gates, 27 janvier 2021. 5. Xavier Bazin, Big Pharma démasqué, de la chloroquine aux vaccins, la crise du coronavirus révèle la face noire de notre système de santé, Paris, Trédaniel, 2021. 6. Insee, « Emploi et chômage », note de conjoncture, 15 décembre 2020 ; Point de conjoncture, 2020. 7. « Quel monde en 2021 ? », Alternatives économiques, n o 122, janvier 2021. 8. Clément Fournier, « Et si les conséquences sanitaires de la crise économique étaient pires que celles du coronavirus ? », Youmatter, 28 octobre 2020. 9. « La Chine fait don de 200 000 doses de vaccin anti-COVID-19 à la Sierra Leone », Xinhuanet, 26 février 2021. 10. Publication de l’OCDE : « GDP Growth – Second Quarter of 2020, OECD », 26 août 2020. 11. Alternatives économiques, hors-série n o 122. 12. Cnuced, « Les investissements directs étrangers dans le monde ont chuté de 42 % en 2020 », 25 janvier 2021. 13. FMI, Perspectives de l’économie mondiale. Reprise : des situations divergentes à gérer, rapport, avril 2021. 14. Institute of International Finance, Global Debt Monitor. COVID Drives Debt Surge—Stabilization Ahead ?, 17 février 2021. 15. Banque mondiale, « Le niveau d’endettement dans le monde augmente avec une ampleur et un rythme sans précédent depuis 50 ans », 19 septembre 2019. 16. « États-Unis : “le niveau actuel de la dette est tout à fait viable”, selon la Fed », Le Figaro, 14 avril 2021. 17. Mayra Rodriguez Valladares, « U.S. Corporates Continue to Gorge at the Debt Trough », Forbes, 10 avril 2021. 18. IIF, Global Debt Monitor. Sharp Spike in Global Debt Ratios, rapport, 16 juillet 2020. 19. « La pandémie a fait exploser la dette de la zone euro en 2020 », Les Échos, 22 avril 2021. 20. Statistiques disponibles sur le site de l’Eurostat, www.ec.europa.eu. 21. Commission pour l’avenir des finances publiques, mars 2021 www.gouvernement.fr/sites/default/files/document/document/2021/03/rapport_- _commission_sur_lavenir_des_finances_publiques.pdf. 22. Marc Touati, « La France, premier fournisseur de dette publique de la zone euro », Acdefi, 8 décembre 2020. 23. Paul Louis, « Coronavirus : les trois scénarios de sortie de crise de la cour des comptes », BFM Business, 30 juin 2020. 24. Marc Touati, « La France est le premier fournisseur de dette publique... », op. cit. 25. Marc Touati, « Le coronavirus va-t-il sonner le glas de la zone euro à 19 ? », Capital, 15 mai 2020. 26. « GAFAM : La pandémie, qui a profité aux géants du numérique, pourrait accélérer leur régulation », Novethic, 5 novembre 2020. 27. « Ces incroyables profits d’Amazon pendant la pandémie », Capital, 30 juillet 2020. 28. « Power, Profits and the Pandemic » de septembre 2020, in art. cit. 29. « Gafam, actionnaires... Qui s’est le plus enrichi depuis le début de la pandémie ? », art. cit. 30. « Sciences du vivant et biotechnologie – Une stratégie pour l’Europe », communication de la Commission européenne, 23 janvier 2001. 31. Les nanotechnologies rassemblent un grand nombre de disciplines scientifiques traditionnelles comme la physique, la chimie, les sciences et technologies de l’information et de la communication (Stic), et biologie médicale. 32. Zhang Zhihao, « Chinese Researchers Head the Field in Nanoscience », China Daily, 19 août 2019. 33. Springer Nature, Small Science in Big China, août 2017. 34. « China’s Spending on R&D Rises to Historic High », Xinhua, 27 août 2020. 35. Ministère de l’Europe et des Affaires étrangères, « Éclairage sur la médecine régénérative en Chine », 19 juin 2018. Entre 1999 et 2018, la Chine a créé 30 centres de recherche en médecine régénérative. En nombre d’articles publiés, elle est, avec 2 091 articles (2008-2018), derrière les États-Unis (7366) mais devant la France, le Japon, la Corée, l’Allemagne. CHAPITRE XIV Démondialisation ou désoccidentalisation de la mondialisation ? « Tout pour nous et rien pour les autres, voilà la vile maxime qui paraît avoir été dans tous les âges, celle des maîtres de l’espèce humaine. » Adam Smith 1 L’évolution de l’échiquier géoéconomique mondial de ces dernières années et les crises de 2008 – financière – et de 2020-2021 – sanitaire et économique – ont porté un rude coup à la mondialisation heureuse, tant vantée par Alain Minc et les démocrates américains dans les années 1990. Longtemps indiscutable, cette doxa ne fait plus l’unanimité. Elle est même fortement combattue à l’intérieur de l’Empire américain par les adeptes du nouveau Parti républicain – et pas seulement par l’aile gauchisante du Parti démocrate autour de Bernie Sanders – depuis que le Grand Old Party a été métamorphosé et resouverainisé par les adeptes du Tea Party et Donald Trump, dont les électeurs s’autoqualifient fièrement de « Patriots ». Ces adeptes du « Make America Great Again » accusent ceux qui ont une lecture mondialiste de la globalisation marchande et financière d’avoir affaibli les États-Unis et appauvri les Américains anglo-saxons natifs en faisant subir aux ouvriers étatsuniens la concurrence déloyale mexicaine et asiatique ainsi que l’immigration incontrôlée. À l’opposé des partisans du libre-échangisme économique 2 , qui voient la mondialisation comme bénéfique en soi, les interventionnistes de droite et de gauche, adeptes de l’État stratège, prônent une altermondialisation ou une démondialisation qui passe par la réglementation, les cycles courts, la réindustrialisation et les relocalisations, voire par une forme de protectionnisme. Dans les années 1990-2000, ceux qui dénonçaient le plus la mondialisation marchande dite « néolibérale » étaient les anticapitalistes No Global (voir mouvement Attac), situés à gauche et à l’extrême gauche, marqués par un tiers-mondisme et un internationalisme prolétarien, qui proposaient un modèle alternatif à la mondialisation capitaliste néolibérale, donc une altermondialisation fondée sur le mantra paradoxal : act local (déglobaliser/renationaliser les entreprises, combattre les multinationales et le capitalisme financier) but think global (mondialiser les institutions publiques, c’est-à-dire supprimer des frontières qui empêchent les migrations – présentées comme bonnes en soi – et promouvoir une citoyenneté universelle). La contradiction résidait dans le fait qu’ils étaient identitairement mondialistes et économiquement nationalistes. Depuis que le monde est en voie de multipolarisation, ce sont des forces plus identitaires et nationalistes qui remettent le plus en question la mondialisation libérale à l’anglo-saxonne et qui œuvrent à une démondialisation. Ces puissances nationalistes ne se limitent pas à des États semi-autarciques comme la Russie. La plus hégémonique d’entre elles, la Chine mercantiliste, cherche plus à désidéologiser, désoccidentaliser et retourner la mondialisation contre ses protagonistes anglo-saxons qu’à la détruire. Les puissances montantes y voient en fait un gigantesque champ de concurrence, le théâtre d’une guerre géoéconomique et géocivilisationnelle qu’elles escomptent gagner face aux pays concurrents ou hégémoniques, notamment occidentaux. La démondialisation ne décrit donc pas, selon nous, l’aspiration – irréaliste et folle – à mettre fin aux échanges entre êtres humains, ni le « repli sur soi », qui provoquerait inéluctablement le retour des guerres et des nationalismes, d’après les adeptes de la mondialisation heureuse. Elle désigne la volonté des États de récupérer leur souveraineté – politique, économique et financière – et l’aspiration des peuples à défendre leur identité nationale. Celles-ci ont en effet été mises en danger par une mondialisation dérégulée à l’anglo-saxonne, une financiarisation excessive de l’économie, une désindustrialisation corrélative ainsi que par l’action des puissances supranationales et multinationales dont la croissance a semblé s’opérer au détriment des États-nation. Cette démondialisation, que nous pourrions aussi nommer la postmondialisation, signifie donc plutôt une redistribution des cartes économiques sur des bases géographiques plus cohérentes. Elle implique la réorientation des économies vers la priorité de la production destinée aux marchés locaux ; le rétablissement des « circuits courts » ; l’interdiction ou la limitation des délocalisations ; l’instauration d’un protectionnisme intelligent ; l’imposition de taxes douanières plus élevées aux pays à bas salaires qui pratiquent le dumping social et/ou – comme la Chine – une concurrence déloyale et des échanges inégaux. On peut également mentionner les dernières mesures instaurées sous l’impulsion de Joe Biden et de l’OCDE visant à taxer à une moyenne de 20 % minimum les multinationales et les Gafam. Les penseurs de la démondialisation ajoutent la règle d’une nette séparation entre banques d’investissement et de dépôts, la lutte contre les fraudes et même parfois l’abandon du dollar comme monnaie de réserve mondiale, grande requête des pays multipolaristes de l’OCS et des Brics. L’idée générale est qu’il serait possible de donner un autre contenu à la mondialisation, et empêcher que les délocalisations et la désindustrialisation ne continuent d’appauvrir les peuples et de rendre l’UE toujours plus dépendante, donc à la merci, des puissances commerciales asiatiques ou nord-américaines. La démondialisation, longtemps assimilée aux protectionnistes d’extrême gauche ou d’extrême droite, a commencé à être prise au sérieux depuis les effets dévastateurs de la crise financière de 2007-2008 et les mesures d’austérité insupportables pour les peuples qui ont suivi. Le terme est apparu pour la première fois en 2002, sous la plume du penseur philippin Walden Bello, auteur de l’ouvrage Deglobalization (2002), qui explique que la mondialisation s’est construite aux dépens des pays du sud de la planète et qui appelle à un contrôle politique des systèmes économiques ainsi qu’à un démantèlement des institutions financières internationales (notamment la Banque mondiale, le FMI, l’OMC), dans une logique assez tiers-mondiste et dirigiste. Outre-Atlantique, c’est le libéral-conservateur américain Donald Trump qui s’est fait élire en 2017 sur un programme de dénonciation des effets pervers de cette mondialisation jugée dangereuse, source de chômage et de perte de souveraineté au profit de l’ennemi géoéconomique chinois, notamment. Une idée jugée au départ belliciste dans la bouche de Donald Trump mais que Joe Biden semble reprendre à son compte en partie aujourd’hui. En Grande-Bretagne, le Brexit a triomphé grâce au vote des régions dévastées par la désindustrialisation et donc des souverainistes – conservateurs comme travaillistes – ainsi que par l’action de Nigel Farage, créateur de partis politiques eurosceptiques Ukip (Parti pour l’indépendance du Royaume-Uni, 2016), puis le Parti du Brexit (2019). Ses idées seront reprises par un autre leader non réputé pour son tiers-mondisme ou son étatisme, Boris Johnson, qui table non pas sur une démondialisation à la façon des No Global socialisants mais sur une canalisation de la mondialisation en fonction des intérêts premiers de sa nation redevenue souveraine et capable de sortir de tous les traités internationaux et supranationaux jugés attentatoires à la souveraineté. Il est intéressant de noter que chez ces personnalités occidentales, la logique qui a inspiré les travaux de Walden Bello est renversée : alors que chez le penseur philippin, les politiques de démondialisation devaient servir à protéger les pays du Sud de ceux du Nord, les démondialistes d’Occident veulent protéger les pays du Nord des logiques qui dépassent leur souveraineté nationale, des agressions économiques et du dumping social des anciens pays du Sud et de l’ex-tiers-monde devenus émergents ou même riches. En France, des personnalités issues de bords aussi différents que le politique Arnaud Montebourg (PS), l’économiste iconoclaste Jacques Sapir 3 , ou l’économiste et journaliste François Lenglet, ont adapté les thèses des démondialistes à la réalité française et européenne. Arnaud Montebourg, ancien ministre du Redressement productif de François Hollande, s’est emparé du thème du made in France et de la réindustrialisation à la suite de la crise financière de 2008 et des mesures d’austérité drastiques imposées par les dirigeants européens et les instances de Bruxelles, chantres de la mondialisation et de la financiarisation de l’économie. Montebourg rappelle que si les États-Unis dirigent l’ensemble de la technologie mondiale, c’est parce qu’ils protègent leurs technologies et donc leurs intérêts, parce qu’ils ont pratiqué la guerre économique et surtout parce qu’ils n’ont pas laissé faire le marché mondial chez eux, tout en l’exigeant des autres... Et le leadership dans le spatial (lanceurs) qu’ils sont en train de ravir aux Européens est selon lui dû au fait qu’ils ont subventionné Elon Musk et SpaceX, même si en réalité, SpaceX s’est aussi imposé grâce à une série d’innovations et à la supériorité de son business model qui a permis de baisser les prix de production en comparaison avec la Nasa sclérosée. L’homme politique plaide en faveur d’un État fort et reconnaît même que la politique économique de Donald Trump a fonctionné avant la Covid-19 grâce à cette reprise en main de l’économie par le politique en fonction des intérêts nationaux. Il affirme que la France et l’UE devraient suivre l’exemple de Trump face à la concurrence déloyale chinoise en surtaxant les importations de produits chinois et en rééquilibrant l’énorme déficit commercial par une forme de protectionnisme et la fin de la fermeture d’usines ou leur rachat afin de préserver notre capacité de production ainsi que les emplois. Il préconise un capitalisme à l’allemande, comme l’a incarné l’ex-chancelier Gerhard Schröder, aux antipodes du modèle dérégulé anglo-saxon, plus organisé autour de l’humain, des responsabilités, de la participation d’inspiration gaulliste, et il appelle à une reconstruction écologique de l’industrie et de l’agriculture qui favorise les relocalisations et les circuits courts. De son côté, François Lenglet, auteur de La Fin de la mondialisation 4 , explique que cette dernière a été durablement freinée depuis la crise financière et économique de 2008, phénomène renforcé par la crise sanitaire, au point de remettre en cause le « consensus de Washington », cette doxa mondialisante qui posait le primat des échanges commerciaux et des pouvoirs financiers, de moins en moins régulés par les États. L’auteur constate « l’ensablement » de l’OMC, l’Organisation mondiale du commerce – que la Chine a intégrée étonnamment vingt ans plus tôt que la Russie honnie mais dont les règles ont systématiquement été violées par Pékin –, et il voit dans le rapatriement des chaînes de production vers les États-Unis, notamment, le début d’une tendance lourde initiée sous l’ère Obama et poursuivie par ses successeurs. On peut, certes, lui répondre qu’il serait presque impossible de rapatrier la plupart des usines car cela conduirait à l’augmentation du coût de vie que la société américaine ne pourra pas accepter. Il pronostique par ailleurs que les cures de désendettement imposées aux pays touchés par la crise impliqueront un mouvement généralisé de « renationalisation » financière. Selon lui, la crise sanitaire aurait précipité la fin du cycle libéral enclenché dans les années 1960 avec la génération des baby-boomers et qui atteignit son apogée dans les années 1980-1990. Elle légitimerait la reprise en main de l’économie par les États, le retour d’une forme de souverainisme économique et même d’un protectionnisme raisonné. Postmondialisation ? Dans son livre La Démondialisation 5 , l’économiste hétérodoxe Jacques Sapir explique, quant à lui, que la mondialisation doit être complétée, régulée, reprise en main par les États et donc équilibrée par un « patriotisme économique ». Sapir conteste ce qui a été présenté depuis des décennies par les néolibéraux comme le mérite majeur de la mondialisation : les succès universels du libre-échange depuis les années 1990. Chiffres en main, l’auteur rappelle que ces échanges libéralisés dans le cadre de la mondialisation anglo-saxonne n’ont pas induit la forte croissance prophétisée au départ par ses promoteurs : l’impact sur les pays les plus pauvres a été en effet plutôt négatif, et surtout, les seuls cas où la concomitance de la mondialisation et du développement économique s’est vérifiée se situent dans les pays où des « politiques nationales puissantes » ont été instaurées. Pour limiter les échecs de la mondialisation, l’économiste plaide en faveur d’un nouveau Bretton Woods et de la mise en œuvre des idées et méthodes keynésiennes, comme celle consistant à pénaliser les déficits ou les excès de balance des paiements. Il rappelle à ceux qui n’ont qu’une lecture « progressiste » de Keynes et qui l’opposent aux partisans du patriotisme, que ce dernier n’était pas seulement un partisan de la coopération internationale mais d’abord un « farouche opposant aux mécanismes supranationaux qui privent les gouvernements de leur souveraineté ». Pour Jacques Sapir, « l’échec du FMI dans la crise asiatique de 1997 a redonné une vitalité significative aux politiques nationales souveraines ». Comme plusieurs Prix Nobel d’économie, Sapir affirme que la seule solution pour conjurer les conséquences de la crise née de la mondialisation serait d’abandonner l’euro, monnaie incapable de concurrencer le dollar s’il n’est pas soutenu par une Europe-puissance, d’autant que les divergences entre les stratégies économiques des pays de la zone euro sont presque impossibles à supprimer, ce qui compromet la constitution d’une zone économique et monétaire optimale, condition de la viabilité d’une monnaie unique. Sapir est toutefois favorable à une monnaie commune ou d’échange hors des frontières de l’Union européenne. Pour l’auteur, la fin de la mondialisation financière à l’anglo-saxonne, qui a atteint son apogée avant la crise financière de 2008, serait imminente : les indices les plus évidents de cette postmondialisation seraient notamment l’échec des négociations de Doha, le refus de la Chine d’assumer les responsabilités monétaires que la mondialisation était supposée lui imposer et, plus généralement, le retour massif des États stratèges désireux d’imposer à nouveau le primat du politique sur l’économie. Cette tendance, observable tant aux États-Unis, en Hongrie, en Russie, en Grande-Bretagne, qu’en Chine ou ailleurs, serait permise par le fait que le commerce mondial, qui avait augmenté jusqu’en 2011, n’a cessé de se contracter depuis lors, donc bien avant la crise sanitaire, les économies en développement, en transition et développées connaissant toutes un recul. À l’appui de ces constats, le rôle des pays du G7 les plus industrialisés (États-Unis, Canada, Japon, France, Allemagne, Italie et Royaume-Uni) sur le PIB mondial s’est fortement réduit depuis les années 2000 : les pays riches, traditionnellement très ouverts, n’ont cessé de perdre du poids dans le PIB mondial, cédant la place aux émergents et aux Brics les plus développés qui ont rejoint – et parfois dépassé – les pays occidentaux. Or la croissance de ces pays est de moins en moins due à l’extérieur, puisqu’elle repose toujours plus sur des facteurs internes, la Chine elle-même ayant pour objectif stratégique économique d’augmenter son marché domestique et de moins dépendre de l’étranger pour sa production de richesse, tout en continuant, certes, à « miser sur l’intégration à l’économie mondiale » comprise comme à sens de plus en plus unique et à son avantage (voir programmes Made in China 2025 et Obor). Le postulat des démondialistes est que les facteurs qui ont motivé l’ouverture de nombreux pays ont cessé et qu’il existerait maintenant des facteurs alternatifs qui déplaceraient l’intérêt vers l’intérieur. Ralentissement de la mondialisation chinoise et postmondialisation régionalisée Quelques constats relatifs à l’évolution de la mondialisation depuis des siècles et les dernières décennies sont éclairants : il est bon de rappeler que la mondialisation n’a jamais été un processus linéaire et éternel, pas plus qu’elle n’a été exclusivement occidentale. Jusqu’au XVII e siècle, en effet, ce fut la Chine, son argent métal, et ses routes de la soie qui portèrent la première mondialisation, avec les échanges de ses deux produits phares : la porcelaine et la soie. Pékin représentait alors une grande part de l’économie mondiale, jusqu’à ce qu’elle se ferme au monde de sa propre initiative, avec les conséquences dramatiques que l’on sait (guerres de l’opium et réactions impérialistes britanniques, françaises et occidentales). De la même manière, la mondialisation anglo-saxonne (McWorld), lancée par les États-Unis « vainqueurs » de la guerre froide à la fin des années 1980, n’a pas seulement été permise par la chute de l’URSS, l’ouverture consécutive de cet espace ainsi que de l’Amérique latine et de l’Asie du Sud-Est au commerce mondial, mais surtout par l’arrivée de la Chine. Celle-ci a en effet porté la mondialisation par son extraordinaire croissance économique à deux chiffres sur plusieurs décennies, à son immense marché et au fait qu’elle est devenue l’usine du monde. Or ce processus de mondialisation porté par la Chine est en train de s’estomper, après avoir atteint son apogée à la fin des années 2000. Ce constat d’une tendance lourde, qui va marquer les prochaines décennies, a été émis par des spécialistes des échanges internationaux et des chercheurs académiques peu soupçonnables de parti pris idéologique radical. Dans leur ouvrage collectif qui fait autorité, les Prs Peter J. Buckley, Peter Enderwick et Adam Cross, auteurs de l’ouvrage de référence International Business 6 , expliquent que le processus de mondialisation n’a plus de nouveaux grands marchés à intégrer, qu’après avoir été portée par Pékin, qui l’a accélérée durant des décennies, après avoir intégré son marché et son industrialisation au monde, la globalisation libérale à l’anglo-saxonne ne peut pas aller plus loin, d’autant que la Chine, devenue une superpuissance, a comme priorité de développer un marché domestique et de s’autonomiser en cessant de n’être que l’usine du monde des entreprises américaines et occidentales. Les auteurs estiment que ce mouvement de fond, qui n’est qu’à ses débuts, va conduire inévitablement à un ralentissement de la mondialisation, tandis que les échanges, qui ne vont pas s’arrêter, bien sûr, vont se développer sur un autre modèle, celui des économies régionalisées ou des grandes régions économiques mondiales (Union européenne ; marché du Sud-Est asiatique, Union eurasiatique et CEI russophones ex-soviétiques, marché nord-américain, voir cartes n o 3 et 4). Cette régionalisation marchande ou postmondialisation correspond en grande partie au paradigme des zones civilisationnelles de Samuel Huntington et elle annonce la consolidation de pan-regions fondée sur des intérêts économiques, des sphères d’influences géographiques communes qui vont de pair avec une multipolarisation géopolitique. Le monde va donc se décliner en zones géocivilisationnelles (voir cartes n o 2, 3 et 4) qui privilégient les échanges intrazones, sans supprimer les échanges intercontinentaux les plus incontournables. Ce constat est également émis par Chetan Sehgal et Michael Lai, analystes de la Franklin Templeton Emerging Markets Equity, qui prennent acte du fait que le coronavirus a accentué la fracture entre la Chine et le reste du monde, notamment occidental, puis intensifié un processus préexistant de démondialisation. Constatant que la crise a nettement aggravé la défiance entre la Chine et l’Occident, observée avant même l’apparition de la Covid-19, ils expliquent, chiffres à l’appui, que l’objectif du pouvoir chinois consiste à axer de plus en plus massivement la consommation sur son marché intérieur, passant ainsi du statut « d’usine du monde » à la production de biens technologiques de pointe (puces informatiques, etc.) et à une croissance à venir de plus en plus fondée sur le développement du marché domestique et la désexternalisation. Par ailleurs, la crise sanitaire a mis en lumière l’extrême fragilité des chaînes d’approvisionnement mondiales, ce qui a provoqué une prise de conscience des élites nationales des autres grands pays décidés eux aussi à atténuer la trop grande dépendance envers la Chine. La conclusion des auteurs est que le phénomène de mondialisation connu ces vingt-cinq dernières années, qui a largement été fondé sur l’intégration de la Chine dans l’économie capitaliste mondiale, s’estompe. En fait, si tous les facteurs lourds qui ont promu la Chine comme usine du monde sont loin d’avoir disparu, sachant que l’Europe et le monde ne pourront pas se passer d’elle du jour au lendemain et relocaliser des gigantesques usines et industries implantées ou utilisées par les firmes occidentales et multinationales depuis des décennies, Pékin est tout de même en train de perdre une part de son intérêt. Premièrement, les coûts de production et de main-d’œuvre sont moins compétitifs que jadis. Deuxièmement, les prix de revient en Chine vont continuer à augmenter progressivement en raison des pressions sur le respect des règles de travail exercées par l’OMT, en particulier, et par les entreprises occidentales clientes, en général, de plus en plus contraintes par les normes ESG (gouvernance et environnement) et par la prise en compte des externalités négatives (pollution, déchets...). Or ces externalités négatives, qui incluent notamment la valeur carbone, en pleine croissance, sont calculées sur l’ensemble de la chaîne d’approvisionnement, dont le transport, ce qui surenchérit les coûts. Cette tendance lourde va être déterminante dans les choix des entreprises clientes de la Chine, notamment dans les pays occidentaux à la pointe sur toutes ces normes. À cela s’ajoutent également les logiques de taxe carbone aux frontières, qui sont en train d’émerger un peu partout, notamment en Europe, ainsi que les tensions sino-américaines, loin d’être résolues malgré l’arrivée au pouvoir de Joe Biden, qui semble avoir repris à son compte la guerre économique déclarée par Donald Trump à la Chine, certes sans le dire aussi brutalement. De la troisième vague de mondialisation à la démondialisation Revenons maintenant sur le processus par lequel, après avoir connu son apogée dans les années 2000, la mondialisation marchande à l’anglo-saxonne, nommée par les académiques « troisième vague » de mondialisation, a commencé à être remise en cause et à décliner 7 . Cette troisième vague, qui date des années 1990 dans un contexte de chute de l’Empire soviétique, a été caractérisée par l’entrée de l’immense marché chinois et de l’usine du monde chinoise dans la mondialisation depuis les années 1980, puis par l’intensification de trois processus, aujourd’hui ralentis ou ayant connu leur apogée : des échanges commerciaux (marchandises et services : « mondialisation marchande ») et des flux de capitaux (transferts monétaires et investissements directs et indirects : « mondialisation financière ») ; des flux humains (immigration, tourisme, voyages d’affaires : « mondialisation des personnes ») ; et des flux d’informations (« mondialisation digitale »). L’erreur fondamentale a consisté, durant des années, à surestimer ces trois intensifications et à y avoir une fatalité qui aurait conduit à un processus inéluctable de désouverainisation et de dépossession des États de leurs prérogatives régaliennes, financières et économiques. En réalité, entre 1980 et 2020, l’intensification des échanges commerciaux n’a pas été aussi spectaculaire qu’on le dit, et la mondialisation a concerné avant tout celle des flux de capitaux, des flux humains et surtout des flux d’informations, mais n’a pas détruit les souverainetés des États puissants. Ces derniers l’ont au contraire instrumentalisée pour asseoir leur puissance et parfois même leur hégémonie. Essayons ici de faire justice de quelques idées reçues et confusions qui font croire que les adeptes de la démondialisation seraient hostiles aux échanges économiques et voudraient « revenir en arrière ». Avant 1980, l’abaissement des barrières douanières s’était réalisé de manière extrêmement progressive dans le cadre des négociations internationales du Gatt (actuel OMC) avec une seule exception régionale : l’Europe qui, à partir de 1957, abolissait ses barrières douanières au sein d’un marché intérieur de 6 pays, puis 9, puis 12, puis 19, puis les 28 pays qui composaient l’Union européenne jusqu’au Brexit. Cependant, à partir des années 1990, les accords de Marrakech et la création de l’OMC, qui ont regroupé 159 pays auxquels se sont jointes la Chine et la Russie, ont abouti à un abaissement généralisé des barrières douanières dans le monde et à la mise en place d’un tribunal des entraves au libre-échange, de sorte que, vu de l’Union européenne, hormis le contrôle du respect des normes et quelques taxes symboliques, il n’y avait plus de différence entre les importations venues d’Europe et celles venues de Chine. Or si l’on retire les échanges intra-européens des calculs du taux de pénétration des pays européens à l’extérieur, en réalité, nous sommes toujours restés bien moins dépendants de l’extérieur qu’on le dit, car près de 80 % des échanges globaux ont toujours été effectués en « intrazone ». Certes, en valeur, les marchandises qui traversent les océans grâce au recours massif aux containers sont au niveau mondial aujourd’hui le double de celui de 1980. Cette augmentation en valeur varie selon les zones géographiques : vue d’Asie, la valeur des marchandises exportées a été multipliée par quatre sur cette période, tandis que vue d’Europe, des États-Unis et d’Afrique, elle n’a crû que de 50 % dans l’intervalle. Ainsi, hormis l’Asie du Sud-Est, cette progression se situe en réalité dans la lignée de la croissance du commerce extérieur observée depuis 1950. Il y a eu donc surtout continuité plutôt qu’explosion du commerce extérieur. Doublement du commerce extérieur en valeur, mais augmentation très modérée du taux d’importation Les États ont en réalité toujours continué à échanger essentiellement les richesses à l’intérieur de leurs frontières ou d’une même zone régionale. Le taux de pénétration des économies (part des importations) a certes augmenté partout, mais pas du tout dans les proportions qu’on imagine. Pour information, un pays qui importe peu a un taux d’importation inférieur à 20 %, comme les États-Unis et la Chine, et un pays qui importe beaucoup, 50 %, ce qui est le cas des petits pays d’Europe comme le Benelux ou l’Autriche. Or entre 1980 et 2019, aucun pays n’a changé de catégorie, même si tous ont vu la part de leurs importations augmenter. Ainsi, en France, les importations sont passées de 25 % en 1980 à 32,8 % du PIB en 2019 8 , ce qui est peu. À l’échelle européenne, les importations de l’UE vis-à-vis du reste du monde sont passées de 15 à 20,3 % 9 , ce qui est finalement peu, d’autant qu’elles résultent essentiellement des importations de l’Allemagne. Aux États-Unis, les importations sont passées, entre 1980 et 2019, de 10 à 14,6 % du PIB, ce qui est encore plus faible. Quant à la Chine, soi-disant hypermondialisée, elle n’importait que 17,3 % de son PIB en 2019 10 . Certes, nous avons déjà vu plus haut que Pékin utilise la mondialisation marchande comme un vecteur d’accroissement et de projection de puissance, son objectif étant de remplacer les entreprises occidentales par des sociétés chinoises et de préparer l’éviction des États-Unis de la mer de Chine, de Taiwan, et du leadership mondial. La Chine a donc une lecture de la mondialisation totalement opposée à celle, « mondialiste », de l’Occident, et c’est dans ce contexte que les firmes digitales et multinationales chinoises BATX ont bloqué en Chine les Gafam américains. Ceci dit, après la crise sanitaire, la Chine devrait voir la part de ses importations diminuer de façon significative, notamment celles en provenance d’Europe, et donc se démondialiser. Par ailleurs, on assiste en Europe à des relocalisations permises par la robotisation, tandis que la Covid a permis de réfléchir sur les secteurs stratégiques. Toutefois, répondent les adeptes de la mondialisation marchande, l’Europe présente aujourd’hui un taux d’importation vis-à-vis de la Chine bien trop important pour permettre à ses industriels de s’en passer à court terme. Il est vrai que les mesures préconisées par Arnaud Montebourg, François Lenglet ou Jacques Sapir, fondées sur le protectionnisme raisonnable et la réindustrialisation, ne peuvent pas produire des effets immédiats. On peut, certes, répondre que, si elles ne sont pas adoptées par les responsables politiques et économiques des pays de l’UE, ce n’est pas en raison de leur impossibilité mais parce que ces élites occidentales, surtout européennes, sont inhibées par un mondialisme de principe et sont pieds et poings liés aux États-Unis, aux institutions à prétention supranationale, et aux multinationales qui n’y ont aucun intérêt. Or ceci n’est pas immuable. Par ailleurs, la globalisation est loin de se résumer aux échanges commerciaux et on peut même imaginer une postglobalisation avec bien moins d’échanges commerciaux transcontinentaux et constituée essentiellement de mouvements de capitaux, de personnes, de flux d’informations, de relocalisation et régionalisation des échanges. Des échanges de services demeurés localisés On distingue souvent les échanges de services des échanges commerciaux. En pratique, la catégorie des services est un fourre-tout, dans lequel on intègre aussi bien les prestataires de services financiers et de services d’information que les distributeurs de produits commerciaux. Or les distributeurs de produits commerciaux ne sont que le bras commercial d’échanges de produits, tels les magasins et les restaurants. Même avec Amazon et le commerce en ligne, il n’y a rien de plus local que les services de distribution 11 . Et dans l’avenir, de plus en plus de firmes modestes on-line vont agir comme Uber et les Gafam, mais à un niveau plus local, plus territorialisé, et plus contrôlable par les États. On peut mentionner les exemples d’applications locales concurrentes d’Uber dans des pays européens, comme Free Now, présente dans 100 villes en Europe ; Taxi EU, qui dessert 160 villes européennes, surtout allemandes ; Gett, actif dans 100 villes d’Europe occidentale et orientale ; G7, 100 % française, qui dessert Paris, d’autres métropoles françaises et 120 villes européennes ; LeCab, utilisable à Paris et environs ; Cabify, application espagnole de taxi desservant Barcelone, Alicante, Madrid, Valence, notamment. Maints exemples existent dans d’autres secteurs : l’appli de coiffure à domicile française Popmyday, le réseau immobilier Idealista (Espagne, Italie), ou encore, dans le domaine de l’alimentation, OptiMiam, l’application française antigaspillage qui met en relation restaurateurs et consommateurs. Le retour du bilatéralisme, reflux des investisseurs internationaux et reréglementation financière À l’échelle planétaire, et si l’on sort de l’occidentalo-centrisme déformant, véritable biais cognitif, on constate que les échanges commerciaux ne se réalisent plus dans un contexte multilatéral sous le regard du tribunal de l’OMC, mais essentiellement dans le cadre d’accords bilatéraux entre États souverains, souvent méfiants vis-à-vis des accords internationaux contraignants. Ainsi, le projet de traité commercial transatlantique avait été une première tentative de bilatéralisme entre l’Europe et les États-Unis 12 . Le but n’était pas de baisser les droits de douane – désormais quasi inexistants – mais de diminuer les obstacles normatifs aux échanges. L’échec de ce traité a été contourné avec l’accord Canada-Europe qui permet aux États-Unis – eux-mêmes liés au Canada au travers de l’Alena – de mettre un pied en Europe. C’est donc plus ici du bilatéral que du multilatéral, une logique de blocs bien plus qu’une logique universelle à la Fukuyama (voir cartes n o 2, 3 et 4). Bref, des échanges économiques entre nations souveraines et blocs géocivilisationnels et des accords régionalisés entre États souverains jaloux de leurs intérêts. Plusieurs exemples montrent que les logiques nationales priment et que seuls les dindons de la farce prennent encore les accords internationaux de libre-échange pour des textes sacrés que personne n’oserait contourner ou trahir : si l’accord sur le Brexit de décembre 2020 a donné l’idée aux États-Unis de l’ex-président Trump de conclure un accord bilatéral avec le Royaume-Uni afin de poursuivre leur implantation en Europe, celui entre l’Union européenne et la Chine sur les investissements, adopté lui aussi en décembre 2020, a essentiellement permis à la Chine de contourner d’importants obstacles normatifs au commerce et aux investissements en Europe, à son seul avantage... Le passage du multilatéralisme de l’OMC au bilatéralisme avec les États-Unis, le Canada, le Royaume-Uni ou la Chine ne signifie pas nécessairement que l’Europe gagnera à ce changement de régime, mais cela démontre par la négative que Lenglet, Montebourg et Sapir, et avec eux ceux que l’on classe dans la catégorie de souverainistes, n’ont pas tort de dire qu’un patriotisme économique pourrait mieux préserver la santé des économies européennes. Tout se passe donc comme si l’Europe du XXI e , tiraillée par des intérêts nationaux différents, subissait le même sort que la Chine au XIX e avec les traités inégaux. À l’inverse, les États-Unis de Donald Trump se sont lancés dans un conflit commercial avec la Chine que Joe Biden n’a pas l’air de contredire dans les faits, intérêt national oblige... Il est vrai que l’économie américaine a un taux d’importation moins élevé que l’Europe. L’administration Biden ne peut que poursuivre cette politique, car les États-Unis sont une vraie puissance souveraine, et Joe Biden ne semble pas se laisser dicter sa conduite économique par les groupes de pression californiens de la Silicon Valley ou les Gafam, récemment recadrés et visés par des politiques de réajustement de taxes à la hausse. L’intensification des mouvements de capitaux a été le phénomène le plus marquant de la mondialisation, résultat de politiques publiques des années 1980. Cette mondialisation financière, accompagnée d’une extrême financiarisation de l’économie et de dérégulations, a donné lieu à des phénomènes incontrôlables comme les subprimes, à l’origine de la crise financière de 2008, fruit de l’irresponsabilité des gouvernements, des banques et des agences de notation. Derrière l’internationalisation de la dette publique, on trouvait alors une volonté délibérée des États d’élargir le nombre de leurs créanciers et d’attirer des capitaux étrangers, ceci dans le cadre d’un vaste mouvement de dérégulation de la finance internationale, de privatisation de facto des banques centrales et des dettes qui ont rendu les États tributaires d’intérêts financiers privés au détriment de leur souveraineté. Ce processus a connu un ralentissement en 2008. Depuis lors, tirant les leçons de la crise financière, les États et leurs banques centrales se sont appliqués à défaire les mesures de dérégulation qu’ils avaient encouragées entre 1985 et 2008. Ce mouvement de reprise en main et de rerégulation de la finance mondiale par les États a été également porté par les mécontentements des peuples scandalisés par le fait que les mêmes dirigeants qui leur ont imposé une austérité insoutenable ont sauvé des banques qui avaient précipité la crise des subprimes. Jusqu’à 2008, les géants américains des agences de notation de crédit ont fait la pluie et le beau temps, dans un contexte de dérégulation et de soumission des États aux agences et institutions de crédit privées, phénomène aujourd’hui critiqué et remis en cause. Connues pour avoir contribué à cautionner des endettements massifs d’États insolvables et coupables d’avoir falsifié leurs comptes publics, comme la Grèce, on peut citer principalement les trois grandes agences de notation Fitch Ratings, Moody’s et Standard & Poor’s (S&P), qui ont un véritable monopole dans la notation des États en matière d’endettement 13 . Ces agences détiennent à elles seules 90 % des parts de marché en Europe, selon l’Autorité européenne des marchés financiers (AEMF). La dépendance est unanimement considérée problématique, car les notes qu’elles attribuent aux titres des dettes déterminent leurs achats sur les marchés par la Banque centrale européenne. Or ces agences, fort liées aux pouvoirs et aux intérêts anglo-saxons, ont maintes fois brillé par leur manque de déontologie, notamment lors de la crise de 2008 qu’elles ont contribué à faire éclater, puisqu’elles ont accordé des notations favorables aux fonds de titrisation (subprimes), ces créances douteuses qui ont affaibli les banques et fait trébucher l’économie financière mondiale. Derrière les « Big Three », trente petites agences de notation spécialisées européennes existent, mais elles ne comptent que pour très peu et les Européens peinent à rééquilibrer cette situation léonine qui rend l’Europe vulnérable aux intérêts américains et de la mondialisation anglo-saxonne. Malgré tout, le fait que l’UE et d’autres États aient décidé de réglementer ces agences de notation est une tendance lourde depuis 2010, date à laquelle une nouvelle réglementation a été adoptée à l’échelle européenne, l’AEMF s’occupant de la surveillance des agences opérant en Europe. Celles-ci doivent désormais rendre leurs modèles et analyses publics et les obligations imposées sont désormais juridiquement plus contraignantes. De plus, un investisseur ne peut plus détenir plus de 5 % du capital de deux agences de notation différentes, et une agence ne peut plus noter une entité dont elle possède plus de 10 % du capital. Dans l’avenir, les États n’auront pas d’autres alternatives que de renforcer cette tendance et les Big Three anglo-saxonnes finiront tôt ou tard par voir leur règne disparaître. La déréglementation financière, remise en cause depuis 2018, avait consisté en une série de textes adoptés dans les années 1980 tendant à assimiler le monde des marchés (les titres échangés en Bourse) et le monde du crédit (la monnaie prêtée) qui étaient jusque-là séparés. Elle avait eu pour effet de rendre les titres presque aussi fongibles que la monnaie, grâce à leur dématérialisation (plus de titres papier) et leur valorisation permanente (principe de la fair value). Initiée au début dans un cadre national, elle s’était propagée grâce à la levée du contrôle des changes, la suppression des restrictions à la création d’entreprises par des étrangers (investissements directs) et à l’entrée d’étrangers dans le capital de sociétés existantes (investissements indirects), puis par l’autorisation, en 1985, des banques à effectuer des opérations de marché (appelé en France et en Grande-Bretagne le « big bang »). Les investissements indirects s’étaient multipliés avec l’essor des Bourses dans les années 1980. En France, la veille de la crise de 2008, la part des actionnaires étrangers frôlait les 50 % des entreprises du CAC 40, en partie issue de privatisations, et elle est tombée ensuite à 35 % après la crise. Ce ne sont toutefois pas les privatisations qui sont à l’origine de la prise de contrôle de nos entreprises par des étrangers, mais une déconnexion des marchés financiers de la sphère réelle. Ainsi, l’attrait des investisseurs internationaux pour les produits financiers des autres pays résulte du développement de « clones » de titres au travers de la pratique des produits dits « dérivés », de la « titrisation » et de la « collatéralisation 14 », trois pratiques qui permettent aux investisseurs internationaux de mettre un pied sur un marché étranger tout en pouvant le fuir rapidement en cas de crise et qui mêlent étroitement banques et marchés, dans ce que l’on appelle officiellement depuis la crise de 2008 la « finance de l’ombre » (shadow banking). Ces trois pratiques sont aujourd’hui remises en question et bien plus encadrées par les États que jadis, voire parfois prohibées. Reréglementation financière, effets du Brexit et renationalisations tous azimuts La tendance à la démondialisation a en fait commencé dès la crise de 2008 avec une vague de réglementation aux États-Unis (Dodd-Frank Act de 2012, grande loi financière d’Obama qui régulait la finance et fit réduire d’un tiers les dérivés dans le monde), puis en Europe, avec le paquet réglementaire de Michel Barnier qui a entraîné une décrue sensible, dès 2014, du volume des dérivés. La crise des subprimes a terni l’image de la titrisation qui a également décru. Quant à la collatéralisation, elle a perdu beaucoup de sens depuis que les banques centrales acceptent comme « collatéraux 15 » des titres privés moins cotés que les titres publics. Un début de séparation des banques de détail et des banques d’affaires (Volcker Rule aux EU, rapport Vickers au Royaume-Uni, lois de séparation des activités de marché françaises et allemandes) a ainsi été mis en place afin de réduire la contagion des activités de marché vers les activités de crédit. Cette séparation efface en partie les effets du big bang de 1985 et abîme la gradation continue des taux entre les crédits bancaires et les financements de marché sur laquelle se fondait l’efficacité des politiques monétaristes depuis les années 1980 jusqu’à la crise de 2008. Le Brexit a quant à lui scellé la perte d’influence de la City sur la réglementation financière européenne. En réalité, cette perte d’influence avait commencé dès 2010 avec l’arrivée de Michel Barnier au poste de commissaire au marché intérieur en remplacement du très libéral Charlie McCreevy. Une législation européenne très favorable aux contrôles a été alors mise en place sous son mandat. Paradoxalement, les Anglais se sont mis à jouer sur le même terrain et, à la suite du rapport Vickers, ont séparé notamment beaucoup plus fortement que la France et l’Allemagne les activités bancaires pour les particuliers et les PME des activités de marché. C’est comme si la suppression de la mise en concurrence de Londres, Paris et Francfort avait eu pour effet de favoriser la reréglementation dans chacun de ces pays. Le désintérêt pour la City s’est exprimé notamment dans les positions en faveur d’un hard Brexit de Boris Johnson. L’accord final négocié en décembre 2020, s’il maintient l’Angleterre dans l’Union douanière, empêche toutefois la City d’offrir ses services sur le continent. Certes, cela n’empêchera pas les capitaux du continent de traverser la Manche pour bénéficier de services financiers sur mesure, mais même sur ce terrain, on pourrait s’attendre à un retour du contrôle des changes. Sur le plan des rachats d’entreprises, la démondialisation s’exprime également par des décisions visant à protéger un marché domestique vis-à-vis de tentatives de prise de contrôle par des puissances étrangères. En France, par exemple, le rachat par le groupe canadien Couche-Tard de Carrefour, premier employeur français, a été empêché au motif de la défense de l’intérêt national. De la même manière, celui du fleuron français de la vision nocturne, Photonis, fournisseur de l’armée française, par l’américain Teledyne, a été interdit par Bercy. Les récurrents veto de l’État français sur des rachats de sociétés françaises par l’étranger ont été favorisés notamment par le décret de 2014, à l’initiative d’Arnaud Montebourg, qui soumet les achats de grandes entreprises françaises liées aux secteurs stratégiques (transports, aérospatial, high-tech, etc.) à l’autorisation de Bercy. Sur le plan européen, des voix politiques de plus en plus fortes réclament un « Buy European Act » sur le modèle du Buy American Act des États-Unis pour réserver aux entreprises européennes une part substantielle des marchés publics, systématiquement ouverts aux entreprises d’États étrangers parfois hostiles et souvent concurrents. Monétisation et nationalisation de la dette publique Un autre effet du quantitative easing des banques centrales a été de réduire l’internationalisation de la dette publique. En effet, dans le cadre des politiques monétaires, les banques centrales reçoivent traditionnellement des titres de dette publique en échange des injections de liquidité, ce que l’on appelle la collatéralisation. Or l’augmentation considérable de ces injections des banques centrales les a amenés à récupérer d’énormes quantités de dette publique. Aux États-Unis, la Fed a ainsi souscrit, en 2020, 65 % des nouvelles émissions de dette publique et ceci s’est poursuivi en 2021. Ce phénomène s’observe même au sein de la zone euro, où la BCE demande à la Banque de France de recevoir en collatéral les bons du Trésor et les OAT français, et à la Bundesbank de prendre exclusivement du Bund allemand. En zone euro, l’année 2021 devrait voir franchir le taux de 50 % de la dette publique détenue par leurs banques centrales respectives. Cette situation engendre de nombreux débats sur l’opportunité ou non d’annuler cette part de dette publique qui est en quelque sorte autodétenue. Il est probable que cette annulation se fera, sous des formes plus ou moins masquées. Par exemple, même sans éteindre la dette publique, il suffit de présenter dans les comptes nationaux les banques centrales dans la rubrique « administration publique » pour que la dette détenue par elles disparaisse des statistiques. Bien entendu, ce genre d’entourloupe risque d’entraîner l’illusion d’un refinancement indéfini de l’État à partir de la planche à billets et donc – à terme – de l’inflation, avec également des risques de variation de changes forts, ce qui va détourner les investisseurs étrangers à la recherche de placements sûrs. Cela signifie-t-il que souverainistes et marxistes étatistes et antiaustérité ont raison de dire que l’on pourra ne pas payer les dettes ? Oui ! répondent certains économistes. Mais à condition de dire clairement que ce sera la seule et dernière fois pour les cinquante ans à venir, afin de ne pas relancer les anticipations d’inflation, et tous en même temps : UE, États-Unis, Suisse, Royaume-Uni, Japon, afin de ne pas entraîner de fuites de capitaux. Flottement des changes et retour au contrôle des changes La suppression du contrôle des changes dans les années 1980 a été un puissant facteur de mondialisation. Depuis quelques années, le retour du contrôle des changes résulte en premier lieu de la lutte contre le blanchiment et le terrorisme harmonisée au niveau mondial par le Gafi à la suite des attentats du 11 septembre 2001. Il se double d’une coopération fiscale renforcée, mise en place de manière multilatérale entre les États européens et surtout de manière unilatérale, voire particulièrement intrusive, par les États-Unis avec la loi Fatca 16 . Par ailleurs, depuis décembre 2020, le Congrès américain a adopté une loi imposant aux propriétaires de sociétés-écrans de divulguer leur nom au fisc. Ces sociétés-écrans, basées aussi bien au Delaware que dans les Caraïbes, sont les coffres-forts des investisseurs en private equity. Ce contrôle des différentes formes de blanchiment et d’évasion fiscale freine les investissements étrangers privés. Seuls les investissements à l’étranger passant via des entités « régulées » comme les banques ou les grands fonds d’investissement (ces derniers sont encore peu régulés, mais devraient l’être prochainement dans le cadre de la lutte contre le shadow banking) pourront continuer, et à condition de ne plus permettre d’évasion fiscale. La suppression de la convertibilité des dollars en or en 1972 avait entraîné à partir de 1976 une brève période de flottement qui a été stoppée en 1986 par les accords du Plaza. À compter de cette date, un système de change plus ou moins fixe a été mis en place avec la constitution de zones de change fixe (rattachement des monnaies émergentes au dollar) ou à monnaie unique (création de l’euro). Cela avait, malgré les nombreuses crises de change, donné confiance aux investisseurs étrangers qui ne craignaient plus de voir leurs investissements se déprécier à la suite d’un effondrement du cours de la monnaie du pays dans lequel ils avaient investi. Cependant, ce système de change fixe a eu un coût social très élevé, notamment dans les pays émergents (crise argentine de 2001). La crise de 2009 a définitivement découragé les pays émergents à se raccrocher à une zone monétaire forte. La Chine a toujours refusé d’arrimer sa monnaie à une autre, ce qui lui a permis de pratiquer une sous-évaluation systématique de sa monnaie et donc de vendre ses produits moins cher. Les pays d’Europe de l’Est continuent pour le moment d’indexer leur monnaie sur l’euro car, en échange, ils bénéficient des délocalisations des groupes allemands et français. Mais cette délocalisation commence à refluer et les tensions peuvent remettre en cause le lien de change fixe (currency peg) avec l’euro. En 2020, les États francophones d’Afrique centrale et occidentale ont décidé d’abandonner le couplage du franc CFA à l’euro et ont créé une nouvelle monnaie commune, l’eco, qui sera à terme gérée en change flottant tant par rapport à l’euro que par rapport au dollar. La généralisation de change flottant implique une augmentation du risque de change pour les investisseurs étrangers qui retirent leurs billes, mais en même temps, une plus grande autonomie pour l’industrie locale qui peut se développer à moindres frais. Ceci participe également du processus de démondialisation car les investisseurs étrangers ont horreur du change flottant qui présente le risque de déprécier leurs actifs. L’arrêt durable des voyages d’affaires et du tourisme de masse Les voyages d’affaires et le tourisme de masse ont été stoppés net par les différents confinements. Dans les aéroports français, la fréquentation est tombée à 5 % pendant les périodes de restriction et n’est remontée qu’à 19 % pendant les périodes de déconfinement. Le recours aux téléconférences a offert aux grandes entreprises le prétexte idéal pour réduire drastiquement les frais de représentation (environ 30 % de la masse salariale des cadres). La nécessité d’adapter les aéronefs aux normes sanitaires va renchérir au moins pour plusieurs années le coût des voyages aériens. Dès mai 2020, Boeing a démantelé une grande partie de ses avions en construction et installé leurs carcasses en Arizona en attendant l’édification de nouveaux types d’avions garantissant la non-contamination. Quant à Airbus, il n’a pu tenir que grâce à ses commandes passées. Combiné avec les restrictions aux frontières (certificats de vaccination), il pourrait en résulter une diminution de long terme du tourisme transfrontalier ou tout au moins du tourisme nécessitant un transport aérien, lequel redeviendrait, comme dans les années 1970, le privilège des classes aisées et ne serait plus accessible aux classes moyennes tant d’Occident que d’Orient. La démondialisation est ici également pleinement en œuvre. 1. 1723-1790, Recherche sur la nature et les causes de la richesse des nations, livre 2, 1776. 2. Francisco Vergara, Les Fondements philosophiques du libéralisme, La Découverte, 14 février 2002. 3. Arnaud Montebourg, Votez pour la démondialisation, préface d’Emmanuel Todd, 2011. 4. François Lenglet, La Fin de la mondialisation, Paris, Fayard, 2013. 5. Paris, Seuil, 2012. 6. Oxford University Press, 2018, p. 652-665. 7. La première mondialisation remonte aux routes de la soie et à l’empire de Gengis Khan (1165-1227) puis à ses successeurs mongols au XIII e siècle. Elle s’est intensifiée avec les découvertes du Portugal et son projet d’expansion globale. La deuxième vague a commencé avec la mise en service du canal de Suez en 1869, point stratégique d’ouverture d’une nouvelle route vers les Indes. Ceci a coïncidé avec l’âge d’or de l’impérialisme européen fondé sur l’exploitation et le commerce des ressources naturelles. La troisième vague a été favorisée par l’abandon de l’étalon or par Nixon en 1971, la chute de l’ex-URSS et l’ouverture de la Chine et des pays d’Europe orientale au commerce mondial et au capitalisme. 8. Insee, comptes nationaux 2020. 9. Parlement européen : PIB de 14 000 milliards d’euros et 2 842 milliards d’importations de biens et services. 10. Banque mondiale, voir https://donnees.banquemondiale.org. 11. Amazon et Uber sont globalisées, mais la logistique est assurée de manière locale par des entrepôts et des VPC locaux. 12. Contourné par le traité avec le Canada et sans doute via le RU grâce à l’accord sur le Brexit. 13. Les dettes publiques des États développés sont cotées par les agences de notation entre AAA (Allemagne) et BBB – (Grèce). Les particuliers ont une espérance de vie de 80 ans et leur dette est moins bien cotée (par les banques prêteuses), entre simple A et B+, rarement C (en cas de surendettement) et jamais D. Les dettes des entreprises sont cotées A+ C, ou D. 14. Un dérivé consiste à créer un actif qui représente le droit d’en acheter un autre (« sous-jacent »). La titrisation consiste à créer un actif regroupant plusieurs sous-jacents. La collatéralisation (« rehypothécation ») vise à remettre temporairement en garantie un actif à un tiers qui le remettra à un autre tout en l’inscrivant à son actif. 15. Les collatéraux sont des titres d’État donnés aux banques entre elles ou à la banque centrale pour obtenir de l’argent. 16. La loi Fatca, adoptée en 2010 sous l’administration Obama, obligera certains expatriés américains à abandonner leur nationalité américaine afin de ne pas subir des peines de prison ou d’amendes disproportionnées. Conclusion Gouverner c’est prévoir, le désordre actuel était prévisible... Le 31 juillet 2019, le général Thierry Burkhard, chef d’état-major de l’armée de terre (Cemat), déclarait : « Il faut être prêt à s’engager pour un conflit de survie [...]. Le rapport de force redevient le mode de règlement des différends entre nations [...], nous devons résolument nous y préparer en gardant à l’esprit que le combat de haute intensité devient une option très probable... » Rien de très rassurant... Mais un homme – ou une nation – averti en vaut deux, d’autant que notre général précise à juste titre que « préparer la guerre ne peut souffrir aucune approximation »... Les guerres peuvent être, certes, évitées. Cependant, on a plus de chance d’y parvenir en s’y préparant – si vis pacem, para bellum – qu’en assénant des lieux communs pacifistes et multiculturalistes assortis de « nous sommes tous des citoyens du monde » ou « les frontières sont meurtrières », ce qui est d’ailleurs souvent tout le contraire car les prédateurs géopolitiques (impérialistes, totalitaires nazis ou communistes, islamistes, etc.) se nourrissent de leur absence ou de leur porosité... Cette nécessité de la préparation a été rappelée de façon tragique par la crise sanitaire, que certains ont assimilée à une guerre. Nous l’avons vu tout au cours de cet ouvrage : si la politique consiste à préserver le bien commun, donc la communauté nationale, la pérennité de la nation, de ses valeurs, de son intégrité territoriale et la sécurité de ses citoyens (les trois grandes composantes de toute entité géopolitique : territoires, population et valeurs fondamentales défendues par les institutions gouvernementales), alors la politique, comme la géopolitique, ne consiste pas seulement à gérer, comme on l’entend trop souvent (« gestion de la Cité »). Cette vision réduite, dépolitisée et, en fin de compte, bureaucratique de la politique, est loin d’être complète. Car la Politique avec un grand P consiste avant tout à prévoir, à anticiper les risques et menaces, et donc à concevoir des stratégies de long terme pour défendre la cité au sens de patrie ou de nation, et pas seulement au sens de vie politicienne ou de géographie électoraliste. Nous avons vu plus haut que dans ce domaine, les démocraties occidentales, paralysées par le court-termisme de leur vie politique très polarisée – de plus en plus soumise à la tyrannie des médias et réseaux sociaux sans contre-pouvoirs puis des lobbys ou institutions extraterritoriales –, ont le plus grand mal à défendre les intérêts de leurs citoyens. Les crises économique et financière de 2007-2008, sanitaire et économique de 2020-2021, comme les risques migratoires, les nouvelles menaces terroristes, séparatistes, fondamentalistes islamistes, sans oublier les risques environnementaux, « cyber » et autres, ont démontré depuis des années que lorsque des dirigeants ne jugent pas primordial de prévoir, c’est l’ensemble de la communauté qui finit par subir. Le même manque de prévision et d’éthique de responsabilité, pour paraphraser Max Weber, a été confirmé ces dernières décennies au niveau des institutions internationales elles-mêmes, trop souvent pavées de toutes les vertus aux yeux des multilatéralistes qui oublient qu’elles ne sont que le fruit et l’expression de la volonté « originaire » des États souverains. Ces institutions (ONU, FMI, OMS, etc.) sont instrumentalisées tantôt par les puissances souverainistes les plus proactives et les plus soucieuses de leurs intérêts nationaux, tantôt par des intérêts économiques privés et des puissances transnationalistes. Le projet de gouvernance mondiale, utopie dangereuse portée par les États-Unis, l’Union européenne et les adeptes du Village mondial, ne peut qu’accentuer la nouvelle ligne de fracture qui oppose multipolaristes et occidentalistes. Les institutions multilatéralistes ne sont pas inutiles si elles demeurent des instances de dialogue, mais elles ne remplaceront jamais les pouvoirs nationaux qui représentent les volontés et les identités des peuples souverains et qui sont la source même de leur pouvoir aucunement inamovible. Car aucun État n’est obligé de demeurer membre ad vitam aeternam d’une institution internationale, surtout si celle-ci est pilotée par des élites qui ambitionnent de réduire la souveraineté pourtant première d’un État. Même la question de l’énergie et de l’environnement en est une illustration, comme nous l’avons vu plus haut : si la Chine est devenue le leader mondial des énergies renouvelables et a mis en œuvre une stratégie de décarbonation et d’économie verte pour 2060, ce n’est pas sous pression des organisations internationales, dont elle bafoue le plus souvent ou détourne les dispositions et règles, mais par intérêt national afin d’atteindre l’autosuffisance énergétique, de ne pas succomber à la pollution de masse et de dominer l’économie mondiale de demain dont la décarbonation sera une source de croissance et d’innovations nouvelles majeures. Les dirigeants des États occidentaux n’ont pas su s’adapter à la nouvelle réalité du monde polycentrique. Ils n’ont pas anticipé la crise sanitaire alors que des rapports des services secrets français, de la CIA ou des fondations comme celle de Bill Gates avaient tiré la sonnette d’alarme depuis le milieu des années 2000. Et concernant l’islamisme radical, qui gangrène les sociétés occidentales ouvertes à tous les vents, ou l’immigration de masse hors contrôle, avec ses conséquences en termes de chocs culturels, de sécurité et de difficulté d’intégration, ces dirigeants prisonniers de leur utopie multiculturaliste et de leur court-termisme politique n’ont rien su ou voulu prévoir non plus, faute d’éthique de responsabilité et de dévotion au bien commun national. Sur le plan géopolitique mondial 1 , le même esprit de non-responsabilité et de court-termisme a contribué au désordre mondial actuel qui participe de plus en plus d’une anarchie internationale : les zones de conflit ne cessent de s’élargir, avec des arcs de crises de milliers de kilomètres, de l’Afghanistan à l’Éthiopie, du Mali à la Libye, de la Syrie à l’Ukraine, peut-être bientôt à l’Estonie (tensions accrues entre l’Otan et la Russie, voir chapitre III), de la Corée du Nord aux îles Senkaku-Diaoyu et Paracels (Chine-Japon-États-Unis et pays d’Asie du Sud-Est alliés, voir chapitres II et XI), de la République centre africaine à la Turquie, sans oublier, bien sûr, l’hyperterrorisme, fruit d’un islamisme radical longtemps encouragé par les pays occidentaux pour lutter contre l’URSS sous la guerre froide et ensuite pour endiguer la Russie et ses alliés dans les Balkans et dans le monde arabe. Les Occidentaux demeurent d’ailleurs plus que jamais les obligés des mêmes puissances islamistes économiquement alliées (Turquie, pays du Golfe, Pakistan, etc.) mais civilisationnellement ennemies... La crainte d’une escalade conduisant à un conflit généralisé est de ce fait désormais plausible. Heureusement, « le pire n’est jamais certain », et des contre-feux existent, mais l’homme et les nations agissent-ils toujours de façon rationnelle ? En dépit des indispensables précautions que tout géopolitologue doit prendre pour tenter de se projeter dans l’avenir, trois constats nous semblent donc peu discutables : le monde occidental lato sensu et l’Europe en particulier nous semblent promis, à court et moyen terme, à un indéniable déclin ; du fait de la gigantesque course technologique qui constitue un élément incontournable de la toile de fond du nouveau désordre international, les fondements séculaires de la géopolitique, de la géoéconomie et de la géostratégie mondiales sont aujourd’hui profondément perturbés ; mais le dieu Janus, en revanche, face aux grands défis décrits dans cet ouvrage et auxquels est confronté le monde contemporain, est plus que jamais présent. En d’autres termes, l’avenir à moyen terme de la planète semble s’orienter, pour de nombreux exégètes, soit vers une exacerbation des tensions qui pourrait aboutir à un troisième conflit mondial, soit, hypothèse certes plus séduisante évoquée par les disciples d’Emmanuel Kant, emprunter, sous l’égide des organisations internationales, les voies de la paix universelle. La première option, inhérente à la spécificité de l’arme nucléaire et au processus de prolifération, ne pourrait aboutir qu’à l’Apocalypse. L’autre, eu égard aux piètres résultats obtenus par les organisations internationales en général et l’ONU en particulier, nous paraît baigner au cœur de l’utopie. Alors, une troisième voie ? On peut aussi parier en changeant d’échelle, sur la réapparition au premier rang des relations internationales, des États-nations qui jouent simultanément les cartes de la Realpolitik et du soft power. Ou voir se concrétiser la prophétie (naguère vivement critiquée par maints de ses contemporains) d’un André Malraux qui déclarait que « le XXI e siècle sera spirituel ou ne sera pas ». À ce propos, le désenchantement du monde opéré en Europe depuis deux siècles et mué depuis des décennies en une déspiritualisation généralisée qui a conduit, parallèlement à l’action nihiliste de McWorld, à une anomie et donc à un vide de sens et d’identité risque de laisser la place à l’islamisme conquérant. Cette situation ne peut à son tour que favoriser l’ascension de forces radicales nationalistes identitaires qui le combattent. Ce vide moral ou cette anomie de l’Occident libéral-libertaire est probablement le pire des défis pour les sociétés européennes, dont les terres et populations, assignées à la désidentarisation et moralement affaiblies par McWorld, sont plus que jamais convoitées par les Empires turco-islamistes, chinois et américains. En fin de compte, le plus dangereux ennemi de l’Europe ne sont pas les prédateurs extérieurs chinois ou islamistes, les narcopuissances, ou l’Empire étatsunien, mais sa « volonté d’impuissance ». L’Europe, « homme malade du monde », civilisation fatiguée, lasse, complexée et désabusée, préfère-t-elle risquer de disparaître de l’Histoire plutôt que de continuer à se battre pour survivre ? Le Vieux Continent sortira-t-il de sa léthargie et conjurera-t-il le déclin prophétisé par Spengler ? Tout dépendra de la décision ou du refus des dirigeants européens de renouer avec une politique de civilisation et de souveraineté. McWorld versus Europa. 1. Aldo Giannuli, « Elogio del disordine mondiale », Limes, n o 2, 2017. Cartes géopolitiques 1/ Le « Heartland » de Halford Mackinder et le « Rimland » de Nicholas Spykman Source : Hérodote, n o 146. 2/ Les grands blocs géoéconomiques du XXI e siècle et sous-ensembles du « Bloc euro-occidental » Source : Alexandre Del Valle, Guerres contre l’Europe, Paris, Les Syrtes, 2000. 3/ Les grands blocs géopolitiques, et organisations stratégiques/géocivilisationnelles 4/ Les grandes organisations d’intégration régionale et alliances régionales 5/ Les civilisations selon Samuel Huntington Source : Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997. 6/ Tensions entre Pékin et ses voisins autour de la mer de Chine et de ses ressources 7/ Tensions géoénergétiques entre la Turquie et ses voisins en Méditerranée orientale 8/ Le projet califal de Daech (État islamique) 9/ Sultanat et califat turco-Ottomans Source : Alexandre Del Valle, La Turquie dans l’Europe. Un cheval de Troie islamiste ?, Paris, Les Syrtes, 2003. 10/ Accords du 10 novembre 2020 relatifs au conflit du Haut- Karabagh 11/ Nations turcophones d’Asie centrale et du Caucase après la disparition de l’ex-URSS 12/ Statut du nord de l’île de Chypre : territoire de l’UE et de la république de Chypre occupé par la Turquie Source : Alexandre Del Valle, Le Dilemme turc, op. cit., carte conçue par Viatcheslav Avioutskii. 13/ Rivalités géopolitiques autour des gazoducs européens et méditerranéens 14/ L’Ukraine déchirée et la place stratégique de la mer Noire et de la Crimée 15/ Pays les plus touchés par le virus de la COVID 19 Bibliographie des ouvrages cités Agnew, John, Geopolitics. Re-Visioning World Politics, Londres/New York, Routledge, 2003. Allison, Graham, Vers la guerre. L’Amérique et la Chine dans le piège de Thucydide ?, Paris, Odile Jacob, 2020. Baker, Peter, Days of Fire. Bush and Cheney in the White House, Washington, Anchor, 2013. Barber, Benjamin R., Djihad versus McWorld, Paris, Desclée de Brouwer, 1996. Bazin, Xavier, Big Pharma démasqué, de la chloroquine aux vaccins, la crise du coronavirus révèle la face noire de notre système de santé, Paris, Trédaniel, 2021. Bello, Walden, Deglobalization. Ideas for a New World Economy, New York, Zed Books, 2002. Bouthoul, Gaston et Carrère, René, Le Défi de la guerre. 1740-1974 : deux siècles de guerre et de révolution, Paris, PUF, 1976. Bouthoul, Gaston, Traité de polémologie. Sociologie des guerres, Paris, Payot, 1970. Braillard, Philippe, Théories des relations internationales, Paris, PUF, 1977. Brzezinski, Zbigniew, Le Grand Échiquier. L’Amérique et le reste du monde, Paris, Bayard, 1997. Buckley, Peter J., Enderwick, Peter et Cross, Adam R., International Business, Oxford University Press, 2018. Caillet, Romain et Puchot, Pierre, Le combat vous a été prescrit, Paris, Stock, 2017. Chevalier, Jean-Marie Geoffron, Patrice, Les Nouveaux Défis de l’énergie, Paris, Economica, 2011. Del Valle, Alexandre, Le Totalitarisme islamiste, Paris, Les Syrtes, 2002. Del Valle, Alexandre, La Turquie dans l’Europe. Un cheval de Troie islamiste ?, Paris, Les Syrtes, 2003. Del Valle, Alexandre, Le Complexe occidental. Petit traité de déculpabilisation, Paris, Toucan, 2014. Del Valle, Alexandre, Les Vrais Ennemis de l’Occident. Du rejet de la Russie à l’islamisation des sociétés ouvertes, Paris, L’Artilleur, 2016. Del Valle, Alexandre, La Stratégie de l’intimidation. Du terrorisme jihadiste à l’islamiquement correct, Paris, L’Artilleur, 2018. Del Valle, Alexandre et Razavi, Emmanuel, Le Projet. Stratégie de conquête et d’infiltration des Frères musulmans en France et dans le monde, Paris, L’Artilleur, 2019. Diaz, Xavier, « Le tsunami de la dette atteint un nouveau record mondial », L’Agefi, 18 novembre 2011. Djalili, Mohammad-Reza, Diplomatie islamique, Paris, PUF, 1989. Éthier, Diane, Introduction aux relations internationales, Montréal, Presses de l’université de Montréal, 2010. Étienne, Bruno, L’Islamisme radical, Paris, Hachette, 1987. Fukuyama, Francis, La Fin de l’histoire et le dernier homme, Paris, Flammarion, 2009. Gallois, Pierre Marie, Stratégie de l’âge nucléaire, Paris, Calmann-Lévy, 1960. Gallois, Pierre Marie, Géopolitique. Les voies de la puissance, Paris, Plon, 1990. Gallois, Pierre Marie, Le soleil d’Allah aveugle l’Occident, Lausanne, L’Âge d’Homme, 1995. Gallois, Pierre Marie, Géopolitique. Les voies de la puissance, Lausanne, L’Âge d’Homme, 1998. Gallois, Pierre Marie, La France sort-elle de l’histoire ?, Paris, L’Âge d’Homme, 1999. Gallois, Pierre Marie, Le Sang du pétrole. Les guerres d’Irak, 1990-2003, Lausanne, L’Âge d’Homme, 2002. Gallois, Pierre Marie, L’Heure fatale de l’Occident, Lausanne/Paris, L’Âge d’Homme, 2004. Geoffroy, Michel, La Nouvelle Guerre des mondes, Paris, Via Romana, 2020. Giannuli, Aldo, « Elogio del disordine mondiale », Limes, n o 2, 2017. Giblin, Béatrice (avec entre autres Avioutskii, Viatcheslav), Les Conflits dans le monde, Paris, Armand Colin, 2016. Hagège, Claude, Contre la pensée unique, Paris, Odile Jacob, 2012. Harbulot, Christian et Pichot-Duclos, Jean, La France doit dire non, Paris, Plon, 1999. Hughes, Barry B., Continuity and Change in World Politics. Competing Perspectives, 3 e éd., Upper Saddle River, NJ, Prentice Hall, 1997. Huntington, Samuel, Le Choc des civilisations, Paris, Odile Jacob, 1997. Kaplan, Robert D., La Revanche de la géographie. Ce que les cartes nous disent des conflits à venir, Paris, Toucan, 2014. Karmon, Ely et Barak, Michael, « Erdogan’s Turkey and the Palestinian Issue », Perspectives on Terrorism, vol. 12, n o 2, avril 2018. Kassis, Randa et Del Valle, Alexandre, Comprendre le chaos syrien, Paris, L’Artilleur, 2016. Kateb, Alexandre, Les Nouvelles Puissances mondiales. Pourquoi les BRIC changent le monde, Paris, Ellipses, 2011. Kepel, Gilles, Le Prophète et Pharaon. Aux sources des mouvements islamistes, Paris, Gallimard, coll. « Folio histoire », 2012. König, Claire, « L’eau, futur or bleu ? La mer d’Aral et son évolution en Asie centrale », Futura-Sciences, 3 juin 2016. Kraemer, Johann-Ewald, L’Euro. Dans les coulisses de la monnaie unique, Paris, Les Syrtes, 2001. Kupchan, Charles, The End of the American Era. US Foreign Policy and the Geopolitics of the Twenty-First Century, New York, Knopf, 2002. Lacoste, Yves, Dictionnaire de géopolitique, Paris, Flammarion, 2002. Lacoste, Yves, Géopolitique. La longue histoire d’aujourd’hui, Paris, Larousse, 2006. Lenglet, François, La Fin de la mondialisation, Paris, Fayard, 2013. Mackinder, Halford John, « Le pivot géographique de l’Histoire », The Geographical Journal, vol. 23, n o 4, avril 1904, p. 421-437. McLuhan, Marshall, The Gutenberg Galaxy. The Making of Typographic Man, Toronto, Canada, University of Toronto Press, 1962. Merry, Robert W., Sands of Empire. Missionary Zeal, American Foreign Policy, and the Hazards of Global Ambition, New York, Simon & Schuster, 2005. Milanovic, Branko, Inégalités mondiales. Le destin des classes moyennes, les ultra-riches et l’égalité des chances, Paris, La Découverte, 2019. Minc, Alain, La Mondialisation heureuse, Paris, Pocket, 1999. Montebourg, Arnaud, Votez pour la démondialisation, Paris, Flammarion, 2011. Nikonov, Viatcheslav, Comprendre la Russie, Paris, Apopsix, 2018. Pitron, Guillaume, La Guerre des métaux rares. La face cachée de la transition énergétique et numérique, Paris, Les Liens qui libèrent, 2018. Pourtier, Roland, Afriques noires, Paris, Hachette, 2001. Quatrepoint, Jean-Michel, Le Choc des empires. États-Unis, Chine, Allemagne : qui dominera l’économie-monde ?, Paris, Gallimard, 2014. Ross, Michael L., The Oil Curse. How Petroleum Wealth Shapes the Development of Nations, New York, Paperback, 2012. Sapir, Jacques, La Démondialisation, Paris, Seuil, 2012. Schooyans, Michel, Le Crash démographique, Paris, Le Sarment-Fayard, 1999. Soppelsa, Jacques, Des tensions et des armes, Paris, PUF, 1984. Soppelsa, Jacques, Lexique de géopolitique (en coll.), Paris, Dalloz, 1997. Soppelsa, Jacques, Les Dates-clefs du dialogue régional en Amérique latine, Paris, Ellipses, 2002. Soppelsa, Jacques, Les États-Unis. Une histoire revisitée, Paris, La Martinière-Seuil, 2004, 413 p. Soppelsa, Jacques, Géopolitique du monde contemporain, Paris, Nathan, 2008. Soppelsa, Jacques, Les Sept Défis capitaux du nouvel ordre mondial, Paris, A2C Médias, 2009. Thual, François, La Crise du Haut-Karabakh. Une citadelle assiégée ?, Paris, PUF, 2002. Touati, Marc, Un monde de bulles, Paris, Bookelis, 2018. Vernier, Éric, Technique de blanchiment et moyens de lutte, Paris, Dunod, 2017. Wallerstein, Immanuel, « Globalization or the Age of Transition? A Long-Term View of the Trajectory of the World System », International Sociology, vol. 15, n o 2, 2000, p. 251-267. Yégavian, Tigrane, Les Diasporas turque et azerbaïdjanaise de France : instruments au service du panturquisme, rapport n o 27 du CF2R. Zeller, Louis-Marie et Alidra, Wassim, « Terres rares : des enjeux de la transition énergétique aux enjeux géopolitiques ? », Les Jeunes IHEDN, octobre 2019. Ziegler, Jean, La Haine de l’Occident, Paris, Albin Michel, 2008. Index des noms propres Abdallah al-ash-Sheikh, Suleiman (ibn) 162 ‘Abd al-Wahhāb, Muhammad (ibn) 162, 201 Aboud Rogo, Mohammed 201 Ahmadinejad, Mahmoud 213 al-Adnani, Abou Mohammed 173 al-Assad, Bachar 70, 83, 96, 109, 171-172, 197 al-Baghdadi, Abou Bakr (calife) 174 al-Banna, Hassan 158-159, 408 Allison, Graham 42, 46, 48-49, 55, 114, 497 al-Maqdissi, Abou Muhammed 192, 201 al-Masri, Abou Mohammed 177 al-Qardaoui, Youssef 196, 408 al-Qarni, Ayid 407 al-Salbi al-Mawla, Amir Mohammed Saïd 174 al-Shugairi, Ahmad 408 al-Souri, Abou Moussab 167, 191 al-Turkmani, Abou Omar 174-175 al-Zawahiri, Ayman 177 Atran, Scott 173, 201 Avioutskii, Viatcheslav 78, 493, 498 Ban Ki-Moon 198 Barber, Benjamin 18, 27, 42, 52-55, 155, 388, 497 Barnier, Michel 474 Bello, Walden 456, 497 Ben Laden, Hamza 175-176 Ben Laden, Oussama 176, 178, 188 Benyettou, Farid 162, 201 Bertrand, Badie 20, 375 Biden, Joe 53, 77-78, 80-81, 97, 215-216, 229, 243, 294-296, 300, 308, 316, 337, 389, 417-418, 421, 435-436, 438, 455-456, 464, 470 Bourguiba, Habib 146 Bouteflika, Abdelaziz 194 Bouthoul, Gaston 61, 73, 94, 341, 360-361, 364, 374, 497 Branko, Milanovic 499 Brzezinski, Zbigniew 21, 30-31, 37, 42, 46-48, 55, 81, 110-111, 117, 497 Burkhard, Thierry 1, 56, 481 Bush, George H. 41-42, 228 Bush, George W. 42, 45, 90, 102-104, 228, 235, 289 Cabirol, Michel 235 Carrère, René 61, 94, 497 Carter, Ashton 108 Carter, Jimmy 35, 227 Castro, Fidel 191 Charlie, McCreevy 474 Chávez, Hugo 406 Chevalier, Jean-Marie 497 Churchill, Winston 35, 41 Clinton, Bill 35, 42, 44 Cody, Wilson 279 de Gaulle, Charles 35, 309, 373 Del Valle, Alexandre 37, 55, 94, 112, 138, 201, 285, 337, 488, 492-493, 497-498 de Maillard, Jean 237, 285 Denécé, Éric 57, 94, 281, 285 Dicko, Mahmoud 185 Disraeli, Benjamin 56 Dunford, Joseph 107 Duroselle, Jean-Baptiste 42, 114 El Chapo (Joaquim Guzmán) 252, 254, 285 El Karoui Hakim 168 El Mencho (Nemesio Oseguera Cervantes) 255 Eltsine, Boris 67, 95, 101, 125, 228, 256 Erdoğan, Recep Tayyip 15, 24, 57, 59, 63, 70, 73, 78, 94, 158-159, 175, 197, 199-201, 269, 272, 285, 327, 332-333, 402, 404-405, 498 Étienne, Bruno 159, 498 Freeman, Morgan 337 Frezat, César 235 Friedman, Thomas 19, 26, 112, 155 Fukuyama, Francis 19, 37, 41, 43-44, 46, 48, 55, 125, 469, 498 Galacteros, Caroline 113, 126, 138 Gallois, Pierre Marie 24, 32, 36-37, 61, 91, 122, 130, 138, 202, 206-207, 226, 235, 498 Gates, Bill 423-424, 428, 452, 483 Gazzane, Hayat 285 Gengis, Khan 479 Georgieva, Kristalina 412, 419 Gomart, Thomas 420 Gorbatchev, Mikhaïl 220, 228 Grézaud, Pierre-Xavier 285 Haftar, Khalifa 83, 175 Hagège, Claude 139, 151, 498 Harpon, Mickaël 167 Haski, Pierre 285 Hassan II 373-374 Hitler, Adolf 168 Hughes, Barry 156, 161, 200-201, 498 Huntington, Samuel 21, 28, 42, 48-52, 55, 74, 87, 94, 114, 125, 356, 462, 489, 498 Hussein, Saddam 91, 201 Ibrahim Boubacar Keïta (IBK) 85, 185 James, Deborah 108 Jong-un, Kim 89, 91, 205 Kadhafi, Mu’ammar 83, 91, 182 Kaplan, Robert D. 21, 37, 498 Kassis, Randa 498 Kennan, George 48, 111-112 Kennedy, Paul 41-42, 55, 114 Kerchove, Gilles (de) 163, 403 Khamenei, Ali (guide) 406 Khomeiny, Rouhollah (ayatollah) 194 Kissinger, Henry 129, 222, 375, 419 Koufa, Hamadoun 187 Kozyrev, Andrei 101 Kupchan, Charles 116, 138, 499 Lacoste, Yves 32, 37, 499 Lagarde, Christine 285 Laqueur, Walter 189-190, 201 Live Matters Blacks 115 Luttwak, Edward 116 Macron, Emmanuel 78, 97, 161, 197, 199, 405-406 Maduro, Nicolás 395-396, 406 Mahathir, bin Mohamad 402, 405 Ma, Jack 54-55, 416 Malraux, André 51, 146, 485 Mao, Zedong 191, 204 Mawdoudi, Abou Ala (al) 158-159 McFaul, Michael 103 Meng, Wanzhou 413 Merkel, Angela 197, 272, 308, 442 Merry, Robert W. 125, 138, 499 Michari, Rachid al-Alafassi 408 Monnet, Bertrand 285 Montaigne, Institut 168, 374, 407, 419 Naji, Abou Bakr 167, 170, 184, 201 Nataf, David 394 Nogueroles, Jean-Michel 360, 374 Nye, Joseph 41 Obama, Barak 42, 44-45, 53, 78, 99-100, 214, 228, 294-295, 305, 458, 474, 479 Paty, Samuel 193, 200, 405-406 Pécresse, Valérie 372 Pérez, Juan Martín 266 Pitron, Guillaume 337, 499 Pons, Noël 236 Poutine, Vladimir 16, 48, 69, 72-73, 76, 78-79, 81, 95, 97, 100-105, 107, 109, 112, 121, 228, 234, 348, 431 Qutb, Sayyid 158-159, 201 Ramadan, Hani 408 Ramadan, Tariq 408 Reagan, Ronald 55, 220 Reza Djalili, Mohammad 156-157, 201, 498 Rhoda, Weeks-Brown 239, 285 Rice, Condoleezza 105, 112, 137 Ross, Michael 93-94, 499 Salih al-‘Uthaymin, Muhammad (ibn) 162 Sanders, Bernie 453 Santo, Vincenzo 272-273 Sauvy, Alfred 341, 372 Schooyans, Michel 346, 374, 499 Sékou, Amadou Barryi 201 Senghor, Léopold Sédar 146 Sihanouk, Norodom 146 Smith, Adam 453 Soppelsa, Jacques 37, 55, 94, 235, 374, 499 Stefanini, Patrick 368, 374 Stoian, Karadeli Andreea 430 Tamim, Al Thani 406 Tedros, Adhanom Ghebreyesus 427 Touati, Marc 440, 442-443, 452, 500 Tribalat, Michèle 364, 366-367, 374 Trump, Donald 37, 42, 53, 89, 91, 97, 100, 114-115, 135, 214-216, 232, 243, 293-297, 306, 308, 316, 402, 404-405, 407, 411-413, 417-418, 426, 436, 453, 456-457, 464, 470 Vernier, Éric 236-237, 253, 264-266, 281-283, 285, 500 Wallerstein, Immanuel 500 Warren, Christopher 44 Waszczykowski, Witold 108 Weber, Max 482 Work, Robert 109 Xi Jinping 16, 48, 80, 124, 137, 297-299, 316, 425-427 Zarqaoui, Abou Moussa al- 174, 192, 201 Zelensky, Volodymyr 78, 97-98 Zhihao Zhang 452 Ziegler, Jean 130-131, 138, 500 Remerciements Nous tenons à remercier tous ceux qui ont contribué, directement ou indirectement, à la réalisation de cet ouvrage : l’entrepreneur M. Y. Maestroni ; Patricia Mamet, membre honoraire du CESE ; les professeurs Viatcheslav Avioutskii – géopolitologue disciple d’Yves Lacoste, spécialiste de l’espace ex-soviétique –, Éric Vernier – directeur de l’école de commerce Iscid-Co, spécialiste des questions de blanchiment –, Drissa Kananbayé – chercheur à l’ULB, expert du Sahel et du djihadisme –, Turab Gurbanov ; Simon Petermann ; puis Éric Dénecé, président du Centre français de recherche sur le renseignement (CF2R) ; Jean-Ewald Kramer, haut fonctionnaire international ancien de la BCE ; Vincent Sinacola, ingénieur-chercheur ; Tigrane Yégavian, géopolitologue du Caucase et contributeur de la revue Conflits ; Edoardo Secchi, économiste et président d’Italy-France Group ; et Guglielmo Janello. Leurs conseils, apports, aides à la relecture et suggestions ont été précieux.
Si la mondialisation marchande à l’anglo-saxonne s’est faite au détriment d’autres types de capitalismes (modèles scandinave, germano-français ou méditerranéen), c’est parce qu’elle a été lancée dans sa forme nouvelle, depuis les années 1990, par l’Empire américain et favorisée par son immense puissance de frappe financière, puis sa domination politico-stratégique, culturelle et économique sur la vieille Europe, d’ailleurs reconstruite à cette condition après la Seconde Guerre mondiale. » Cette idée est présente également dans les analyses de Samuel Huntington, pour qui la mondialisation et Internet n’ont pas fait disparaître les identités des peuples, mais ont permis a contrario à ces derniers d’accéder à une « conscience civilisationnelle » déterritorialisée et plus large, de sorte qu’un exilé serait aujourd’hui bien plus lié à son pays d’origine et s’assimilerait bien moins facilement à la société d’accueil qu’avant l’ère des télécommunications où les émigrés étaient coupés de leur milieu d’origine par les lois de la géographie. Pris au piège de l’illusion dangereuse selon laquelle ils vivront indéfiniment protégés des menaces externes par leur pacifisme et leur renoncement à l’identité, ces non-puissances ouest-européennes ne semblent plus capables de défendre sur leur sol leurs propres valeurs et civilisation, menacées non pas par une immigration extra-européenne qui serait positive si elle était assimilée, mais par les appétits de conquête de prédateurs externes : la Chine impériale renaissante, l’empire acculturant McWorld, et les puissances revanchardes panislamistes, comme la Turquie néo-ottomane d’Erdoğan, qui instrumentalisent l’ouverture européenne et y embrigadent les communautés immigrées musulmanes pour servir leur expansionnisme, remplissant ainsi le vide laissé par les États désouverainisés et désindustrialisés d’Europe occidentale. Les leçons de la gestion chinoise et asiatique de la crise sanitaire Avec le recul nécessaire, un an et demi après les premiers confinements qui ont paralysé et continuent de paralyser les pays occidentaux (surtout l’Union européenne) – faute de lits suffisants dans les hôpitaux, de discipline et de fermeture des frontières –, les modèles alternatifs confucéens de Taiwan, Singapour, Corée du Sud et a fortiori de la Chine ont incontestablement fait preuve d’une plus grande efficacité, au prix d’une fermeture précoce des frontières, d’un traçage massif liberticide, de quarantaines drastiques, mais relativement courtes, et d’une emprise technologico-politique sur les citoyens. Elle nous rappelle que le monde multipolaire qui se dessine n’est pas seulement fait de pôles émergents et de puissances jalouses de leurs prés carrés géopolitiques, mais aussi de polycentrisme des valeurs, celles de l’Occident libertaire- mondialisé étant perçues par les autres civilisations comme une menace idéologique anarchisante, acculturante et civilisationnellement mortelle. L’Europe dupe de son interprétation utopique de la mondialisation La thèse majeure du présent essai est que la mondialisation a révélé les vulnérabilités majeures de l’Europe, ventre mou de l’Occident, qui se retrouve, de par son ouverture sans limites, exposée à toute une série de nouveaux défis qu’elle peine encore plus que les autres grandes puissances à relever : pandémie, chômage endémique, crises économiques et financières récurrentes, dépopulation des campagnes, vieillissement, fuite des cerveaux (notamment vers les États-Unis), bureaucratisation, anémie entrepreneuriale, délocalisations industrielles, dumping social asiatique, concurrence déloyale chinoise, islamisme conquérant, immigration incontrôlée, terrorisme, trafics de drogue et crime organisé, rivalités énergétiques et menaces hydriques. Un des effets secondaires et curieux de ce processus est que les Européens sont les seuls dans le monde à rejeter et diaboliser leur identités et frontières alors que les autres nations non occidentales, à commencer par la Chine, l’Inde, la Turquie, l’Asie du Sud-Est (etc.), se développent en réaction à l’universalisme occidental et utilisent au contraire la mondialisation comme un levier de leur puissance nationale et civilisationnelle. L’existence d’une façade maritime ou son absence et donc la recherche d’un accès à la mer, figure depuis des siècles aux tout premiers rangs des préoccupations majeures des grandes nations (voir chapitre X), cet ouvrage évoquant notamment le cas de l’Arménie enclavée et prise en tenailles par ses ennemis turco-azéris, ou celui de la Russie-URSS qui a toujours recherché un accès aux « Mers chaudes 15 », d’où les tensions russo- atlantistes actuelles en mer Baltique, en mer Noire (Ukraine/Crimée), ou même passées lors de l’alliance entre les États-Unis et les moudjahidines après l’invasion soviétique de l’Afghanistan, sur la route directe de l’océan Indien. Ce constat rend compte également qu’au-delà de la définition même de la géopolitique, l’approche de cette dernière est, depuis des générations, partagée entre deux sensibilités : considérer effectivement que le poids des tendances lourdes est primordial, s’inscrivant ici dans l’héritage d’illustres ancêtres (Jules César qui, à la veille de la conquête de la Gaule, fait étudier minutieusement par ses conseillers les spécificités géographiques du territoire à conquérir et les mœurs et coutumes de ses futurs adversaires ; Richelieu, père des « frontières naturelles », Frédéric II ou Bismarck...), ou au contraire privilégier les variables contemporaines, à l’image de Tamerlan, de Napoléon Bonaparte, du Vietnamien Giap ou des théoriciens comme John Frederick Charles Fuller et Pierre Marie Gallois, lointains disciples du plus génial des géostratèges : Alexandre le Grand. Ces disciplines, qui se doivent d’être menées de façon dépassionnée et désidéologisée, sont de ce fait aux antipodes du manichéisme idéologique et donc de tout politiquement correct : géopolitologues et stratèges postulent en effet que les États-nations – acteurs géopolitiques majeurs – ont et continueront toujours d’avoir des intérêts froids et des alliés comme des ennemis ; que seuls ceux qui renoncent à leurs prérogatives régaliennes seront désouverainisés par la mondialisation ou le supranationalisme ; et enfin qu’ils sont condamnés à conduire des politiques de civilisation et à se préparer à des menaces – internes ou externes –, à la guerre économique ou à la guerre tout court, s’ils ne veulent pas disparaître. La relecture de ces grandes écoles de pensée s’interrogeant sur l’avenir du monde postbipolaire peut nous inciter, rétrospectivement, à critiquer ou valider leurs analyses à vocation plus ou moins prédictive, d’autant qu’elles ont toutes abordé d’une façon ou d’une autre la question de la mondialisation et du devenir de l’Empire américano-occidental, aujourd’hui contesté dans ses fondements mêmes par les outsiders. Il est aujourd’hui encore trop tôt pour pouvoir émettre un jugement objectif sur les prises de position d’un Donald Trump entre 2016 et 2020, d’autant que, en comparaison avec ses prédécesseurs, Trump aura été plutôt un non- interventionniste et n’a pas commis les graves erreurs de politique étrangère de Bill Clinton, George Bush père et fils et même Barack Obama (guerres d’ex-Yougoslavie, Irak 1 et 2, Libye, Afghanistan). Toutefois, la proposition barberienne de conjurer le scénario chaotique d’un « Mad Max universel » par la réhabilitation de l’État souverain confirme la nécessité que ce dernier demeure l’acteur majeur de la politique mondiale et le fait qu’il soit le cadre le plus approprié pour assurer les droits des citoyens – donc la démocratie elle-même – comme seule alternative viable face aux forces impériales et néobarbares de djihad, de Mad Max et de McWorld qui annoncent la guerre de tous contre tous. En fin de compte, la multiplication des conflits depuis la fin de la guerre froide peut s’expliquer non seulement par le fait que la sanctuarisation nucléaire ne suffit pas et ne concerne que peu de nations, mais aussi par l’échec patent du multilatéralisme, qui n’a réglé pratiquement aucun des conflits, excepté les exemples discutables des Balkans : échecs au Rwanda, à Chypre, en Israël-Palestine, en République démocratique du Congo, en République centrafricaine, en Syrie, en Libye, en Irak, en Corée du Nord, au Yémen, en Somalie, et aussi sur le dossier nucléaire iranien, les exemples sont trop nombreux pour être tous énumérés. Le conflit du Haut-Karabagh La récente confrontation armée entre l’Azerbaïdjan et les Arméniens du Haut Karabagh (27 septembre- 10 novembre 2020) n’est que l’énième épisode d’un antagonisme géopolitique violent qui date des années 1988- 1991 : l’Arménie chrétienne ex-soviétique est non seulement enclavée mais surtout prise en tenailles entre Turcs musulmans sunnites à l’Ouest et Azéris musulmans chiites à l’Est (turcophones également), et n’a de bons rapports qu’avec les Russes et dans une moindre mesure, avec les Perses voisins, eux-mêmes concurrents des Turcs et des Russes et méfiants vis-à-vis de l’irrédentisme azéri dans le nord de l’Iran... En septembre 1991, l’Assemblée nationale du Haut-Karabagh réitéra sa déclaration d’indépendance, ratifiée par le référendum du 10 décembre, avec une écrasante majorité de « oui », mais elle n’a jamais été reconnue par aucun État..., pas même par les Nations unies ou d’autres organisations internationales intergouvernementales qui ne veulent pas compromettre leurs relations avec l’Azerbaïdjan riche en pétrole et bien plus prospère que la petite Arménie enclavée, et sous embargo turco-azéri... On remarquera en passant que, dans le cadre de ce monde multipolaire en voie de constitution, ce n’est pas le Groupe de Minsk, cité précédemment, qui a fait avaliser le cessez-le-feu du 10 novembre 2020, mais une entente tripartite fort cynique entre l’Azerbaïdjan, la Turquie et la Russie, excluant soigneusement des termes de l’accord les parrains occidentaux du Groupe de Minsk (France, États-Unis) : Erevan s’engage à rétrocéder à Bakou les districts d’Aghdam et de Kelbadjar ; un corridor est aménagé à Latchin ; le retour des personnes déplacées sera effectué sous le contrôle de l’ONU ; et, plus concrètement encore, dès le lendemain de la signature de l’accord, deux mille soldats russes sont déployés le long de l’ancienne ligne de front (voir carte n o 10). Certes, on n’en est pas là, mais il ne faut jamais oublier, contrairement aux fantasmes de certains russophiles extrêmes, que Moscou n’est pas une puissance idéaliste chrétienne nécessairement proarménienne, mais qu’elle cherche à rester présente sur l’ensemble du Caucase riche en hydrocarbures (Azerbaïdjan), traversé par les routes de transit énergétique, et que dans ce contexte, elle n’a jamais considéré le Haut-Karabagh comme autre chose qu’une partie intégrante du territoire de l’Azerbaïdjan souverain... Le Président turc a ainsi fait d’une pierre deux coups en appuyant ostensiblement, politiquement et militairement (coordination entre les armées turque et azérie), cette guerre pour les « frères turcs azéris » : il fait oublier des problèmes économiques et politiques intérieurs ; il consolide l’alliance électorale de son parti l’AKP, avec les nationalistes panturcs du MHP ; et il renforce la présence turque dans la région stratégique et riche en hydrocarbures du Caucase turcophone (mer Caspienne), alors que la Turquie manque d’énergies fossiles et ne veut pas trop dépendre du gaz russe. Côté ukrainien, certaines sources indiquent qu’il y aurait également une volonté de reproduire le scénario azéri, pour récupérer militairement les territoires russophones rebelles de l’Est, l’Ukraine escomptant que la Russie n’ose pas intervenir massivement et directement dans le Donbass pour plusieurs raisons : primo, Moscou n’a pas le droit légal d’intervenir sur le sol ukrainien dont le Donbass (voir carte n o 14) fait partie, sachant que l’indépendance de ces républiques autoproclamées n’a jamais été reconnue par les autorités russes elles-mêmes (comme celle du Haut-Karabagh). On peut citer, par exemple, la guerre civile syrienne, sur laquelle nous reviendrons, celle du Yémen, toujours en cours, qui oppose rebelles chiites-houthistes soutenus par l’Iran, d’une part, aux sunnites progouvernementaux liés aux Frères musulmans et aux monarchies du Golfe, de l’autre, soutenus par les États-Unis et l’Occident ; le conflit intercommunautaire opposant les Philippines à la Malaisie dans l’État malaisien de Sabah (2013) ; les conflits africains, surreprésentés : Congo/Kinshasa 17 ; Ethiopie, où les rebelles de la région dissidente du Tigré (Nord), en guerre contre le pouvoir central et son ethnie majoritaire (Oromo), ont pris les principales villes de la zone, Adigrat, Shiré et depuis le 29 juin 2021, la capitale régionale Mekele ; Côte d’Ivoire (opposition entre ethnies rivales, Nord rebelle et capitale, puis entre pro-Gbagbo et pro-Ouattara) ; Kivu 18 ; République centrafricaine (luttes interethniques et conflits sédentaires chrétiens/musulmans venus du Nord), génocides du Soudan (1990- 2000 : chrétiens du Sud-Soudan et musulmans noirs du Darfour exterminés par la junte nationale-islamiste arabe du Nord) ou du Rwanda (1994, Hutus contre Tutsis). Cet archipel revêt un fort intérêt économico-stratégique pour la Russie, car il recèle des réserves minières et de terres rares, comme le rhénium 23 , ainsi que des gisements de pétrole et de gaz, il constitue aussi une porte stratégique sur le Pacifique pour les deux bases navales russes de Vladivostok, d’où les navires partent via le détroit qui ne gèle pas en hiver entre les îles Kounachir et Itouroup, deux des quatre îles Kouriles ; le contentieux autour des îles Senkaku (ou Diaoyu en chinois), revendiquées par ces mêmes puissances où la situation est devenue très conflictuelle depuis que le gouvernement japonais a décidé, en septembre 2012, de nationaliser trois des cinq îles de l’archipel 24 qui se situent en mer de Chine orientale. Le Viêtnam, puissance émergente du monde multipolaire, qui tente de réaffirmer sa maritimisation régionale, ne pouvant pas lutter à armes égales contre la Chine, mise sur le dispositif de l’Asean (voir cartes n os 3 et 4), qui inclut des pays partageant les mêmes préoccupations (Malaisie, Philippines, Brunei), et se rapproche des États-Unis, l’ancien ennemi juré, ainsi que de l’Inde, et de l’Australie dans une logique d’endiguement de la Chine. Outre ces contentieux historiques, dont Hong Kong est un des symboles, deux faits majeurs ont rappelé que la Chine est de plus en plus sûre d’elle- même : parallèlement aux incidents de frontières avec la Russie le long du fleuve Amour – rivalité qui persiste malgré leur alliance stratégique au sein de l’OCS (voir chapitre V) –, son contentieux avec l’Union indienne, d’une part, et son souci de s’affirmer comme une véritable puissance maritime, d’autre part, sont des tendances lourdes. Deux contentieux frontaliers ont ainsi resurgi récemment entre la nouvelle superpuissance chinoise et l’Union indienne, puissance nucléaire depuis 1974 : après une période de relative accalmie, les pays rivaux sont en situation de conflit latent à l’est du Cachemire (également source de conflits pérennes avec le Pakistan, autre puissance nucléaire), et l’on se souvient de la guerre sino-indienne de 1962, brève mais très violente, pour le contrôle des territoires himalayens. Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Pour récapituler, dans le monde instable et multipolaire qui vient, les conflits majeurs et potentiels – qui ne comprennent pas les risques climatiques ou sanitaires, plus indépendants des agendas politiques et géopolitiques et étudiés plus loin – peuvent être fondés sur : des antagonismes géoénergétiques ou autour de l’eau et des terres rares ; la persistance des rivalités et conflits infra-étatiques internationalisés ou régionalisés ; la guerre géoéconomique et financière autour des rivalités entre l’Occident et ses outsiders et entre les acteurs principaux du monde polycentrique ; des conflits identitaires que Samuel Huntington a rangés dans la catégorie des « chocs de civilisations » ; des phénomènes migratoires de masse incontrôlés ; le terrorisme international, très majoritairement islamiste ; les chocs des empires naissants ou résurgents (néo-ottomanisme turc versus nationalismes arabes et Europe ; États-Unis versus Chine et Russie). Les États-Unis, l’Alliance atlantique et l’Union européenne – vassalisée depuis 1950 – ont étendu leur puissance vers l’Europe centrale et orientale, jusqu’aux pays baltes et aux Balkans, ce qui a été ressenti par la Russie comme une humiliation, car il s’agit de son ancienne zone d’influence du temps de la guerre froide. À cet égard, les premières déclarations et décisions du président Joe Biden, pourtant supposé être plus mesuré que son prédécesseur Donald Trump, n’ont pas été dans le sens de l’amélioration des relations russo-américaines : après avoir qualifié (17 mars 2021) Vladimir Poutine de « meurtrier », Joe Biden a accusé la Russie d’essayer de continuer à influencer la politique intérieure américaine et il a non seulement renforcé les sanctions contre Moscou en mettant sur une liste noire trente-cinq personnes morales et physiques russes, mais aussi interdit aux entreprises et citoyens américains d’acquérir et acheter des bons du Trésor russe destinés à financer la dette de la Russie. Certes, l’OCS est composée, comme les Brics (Brésil, Russie, Inde, Chine, Afrique du Sud), d’États parfois ennemis entre eux (l’Inde et la Chine), mais outre que la Chine et la Russie, son noyau dur, sont des alliées stratégiques face à l’Otan et aux États-Unis, elle représente tout de même un ensemble multipolaire qui dispose de 38 % des ressources mondiales de gaz, de 20 % de celles en gaz, de 40 % du charbon, de 30 % de l’uranium de la planète et des deux armées les plus puissantes après les États-Unis, de surcroît nucléaires. Ce mouvement renforcera non seulement les liens entre la Chine, la Russie, l’Iran et l’Inde, mais il attirera aussi contre lui des pays du monde musulman et des acteurs souverainistes pas forcément antioccidentaux, pour qui l’hégémonie américaine est rédhibitoire, donnant ainsi corps à l’alliance antihégémonique que redoutait tant Zbigniew Brzezinski dans Le Grand Échiquier. Le nombre de grandes puissances va être plus élevé qu’il ne l’a jamais été par le passé : on trouve tout d’abord le « club des sept empires » (Giannulli), à savoir les États-Unis, l’Union européenne, le Japon, le Brésil, la Russie, l’Inde et la Chine, qui représentent à eux seuls plus de 50 % de la population mondiale et 75 % du produit intérieur brut (PIB) mondial, puis viennent dans un second cercle de puissances de moindre poids l’Afrique du Sud, la Colombie, l’Indonésie, l’Égypte, l’Iran, la Turquie, chacune de ces puissances évoluant dans leur « étranger proche » sur la base de leurs propres valeurs et intérêts, portant ainsi une vision spécifique. La crise économique et financière a par ailleurs accentué le phénomène de rééquilibrage économique et géopolitique mondial en faveur d’une participation plus importante des pays non occidentaux aux affaires du monde : la part de l’Asie dans l’économie mondiale est passée de 7 % en 1980 à 30 % en 2020, tandis que les marchés d’Asie représentent aujourd’hui 34 % de la capitalisation boursière mondiale (devant les États-Unis, 29 %, et l’Europe 24 %). L’Union européenne est aujourd’hui une organisation hybride : un Ogni, un objet géopolitique non identifié : elle n’est ni un État, ni une fédération, ni même une confédération, mais une organisation internationale très divisée et hétérogène, unie en apparence seulement par une idéologie sociale-démocrate universaliste et une économie de marché, qui s’applique à elle-même des règles de limitation des souverainetés, de répression des identités nationales, d’ingénuité géoéconomique, de strict respect de la concurrence, de protection des travailleurs et de l’environnement ou de multiculturalisme, que les autres acteurs du monde ne s’appliquent pas à eux-mêmes, mais exigent opportunément d’elle, dans l’intention de la conquérir. Rejet de l’occidentalisation et de la domination américaine Les nouveaux dispositifs géopolitiques mis en œuvre depuis la fin de la guerre froide par les partisans d’un nouvel ordre international polycentrique, émancipés de l’hégémonie de l’Occident et des États-Unis, donc en quête de « désoccidentalisation », appartiennent à deux grands groupes : premièrement, les groupes d’États qui s’opposent à l’Occident, combattent ses valeurs et sa civilisation ; deuxièmement, ceux qui ne sont pas forcément antioccidentaux mais qui veulent un monde multipolaire fondé sur le respect de la souveraineté des États maîtres de leurs zones d’action géopolitique, économique et stratégique respectives. D’après Ziegler, cette haine antioccidentale paralyse les Nations unies : l’Assemblée générale de l’ONU est d’ores et déjà composée en grande majorité de pays du Sud et émergents (Afrique, Asie du Sud, Amérique latine, monde islamique-OCI, OCS, Brics, etc.), qui contestent l’unipolarité du monde, alors que l’organe décisionnel stratégique (les cinq États membres permanents du Conseil de sécurité) demeure dominé par des États vainqueurs de la Seconde Guerre mondiale (États-Unis, France, Grande-Bretagne, Russie, Chine) qui refusent pour l’heure de revoir cette composition qui ne reflète pourtant plus du tout l’état du monde dans sa pluralité ni l’émergence de nouveaux acteurs stratégiques clés du Sud, comme l’Inde, le Brésil ou l’Afrique du Sud. Tant à la conférence antioccidentale de l’ONU organisée à Durban, en 2000 puis en 2009 (« Durban II »), qu’au Conseil des droits de l’homme des Nations unies à Genève ou à l’Assemblée générale des Nations unies, à New York, on constate la radicalisation d’un front antioccidental, rappelant à la fois l’expérience de la Tricontinentale et des non-alignés, et unissant, contre Israël, les États-Unis, et les pays industriels démocratiques des États aussi différents que l’Égypte, le Pakistan, Cuba, la Bolivie, le Venezuela, les États membres des groupes africains, arabes, musulmans (OCI) et latino-américains, la Corée du Nord, la Chine ou la Russie (Brics, OCS, États non-alignés). La Chine va ainsi asseoir encore son influence économique et industrielle sur toute l’Asie, en déployant de nouvelles chaînes de production en Asie du Sud-Est, sanctuarisant de ce fait sa puissance industrielle et commerciale et contestant le réseau d’alliances militaires et économiques des États-Unis par une stratégie économico-financière de contre-encerclement asymétrique, qui va de pair avec la stratégie du collier de perles et l’initiative BRI... Cette théorie néo-impériale de l’État universel islamique s’oppose par principe à la coexistence d’une pluralité d’États égaux et souverains, et c’est pour cette raison notamment que l’islamisme radical n’est pas qu’une menace terroriste (partie émergée de l’iceberg totalitaire) mais avant tout un défi géopolitique et stratégique pour tous les États-nations attachés à leur souveraineté et à leur pérennité, qui voient dans l’islamisme un projet subversif à la fois séparatiste (en interne) et suprémaciste conquérant (au niveau externe). Cette idéologie fondée sur le règne de la charia et du califat planétaire, appelée à soumettre, de gré ou de force, l’humanité (voir carte n o 8), est portée depuis des décennies par des grands pôles étatiques 8 : le wahhabisme salafiste officiel d’Arabie saoudite, avec son bras prosélyte mondial, la Ligue islamique mondiale ; le pôle indo-pakistanais, cofondateur du Jamaat al-islamiyya ; des talibans d’al-Qaida ; le Qatar, parrain du Hamas et des Frères musulmans, à la tête du média planétaire Al Jazeera ; le pôle néo-ottoman réhabilité par la Turquie postkémaliste de Recep Tayyip Erdoğan ; la révolution islamique iranienne chiite, influencée dans ses origines par les Frères musulmans bien qu’étant chiite ; sans oublier les puissantes institutions et organisations internationales panislamiques comme l’Organisation de la coopération islamique (voir infra), qui réunit cinquante-sept pays musulmans désireux d’instaurer un ordre international alternatif fondé sur la charia, l’Organisation du monde islamique pour l’éducation, les sciences et la culture (Isesco, sorte d’« Unesco » islamique, influencée par les Frères musulmans) ; et enfin, les grandes centrales terroristes comme al-Qaida ou Daesh, et les groupes franchisés associés comme Aqmi, Boko Haram, shebab somaliens, etc. Concernant la Syrie, la situation est loin de s’améliorer et toute l’action des Occidentaux, encore obnubilés par leur stratégie d’endiguement de la Russie et de ses alliés stratégiques iranien et syrien, semble concourir à faire le jeu de l’islamisme et du djihadisme : en juin 2019, Washington a fait adopter de nouvelles sanctions à travers la loi César (Caesar Syria Civilian Protection Act), extraterritoriale, qui prévoit d’interdire l’entrée aux États-Unis et de barrer l’accès au système financier américain à toute personne, institution ou entreprise soutenant l’État syrien dans la reconstruction ou les hydrocarbures (y compris la vente). Si les États-Unis retirent des milliers de soldats d’Afghanistan, al-Qaida est également bien placée pour profiter du vide qui en résulte et régénérer son réseau dans toute l’Asie du Sud. L’organisation, toujours dirigée par l’un de ses fondateurs historiques, Ayman al-Zawahiri, a survécu pendant plus de trois décennies grâce à la capacité du groupe à innover en affinant constamment des tactiques, des techniques et modus vivendi caractérisés par une très forte capacité d’adaptation selon les circonstances, les contextes culturels et les zones géographiques. Ces pôles institutionnels de l’islamisation qui dénoncent verbalement la violence djihadiste tout en affirmant qu’elle n’a « rien à voir avec l’Islam » – et donc en niant son existence même – pratiquent de leur côté une ingérence politique dans les affaires de tous les pays du monde où vivent des musulmans, sous couvert de défense de l’islam et des musulmans « persécutés », se nourrissant aussi d’une « islamophobie » souvent imaginaire. Toujours est-il qu’une des conséquences principales des sanctions renforcées par Donald Trump (« pression maximale ») a été le renforcement de la coopération irano-chinoise qui a franchi un nouveau cap avec l’officialisation d’un accord stratégique de vingt-cinq ans entre les deux pays en mars 2020, un rapprochement que voudrait éviter à tout prix Joe Biden mais qui participe d’une tendance lourde inhérente à la multipolarisation et aux rivalités entre les États-Unis et le tandem russo-chinois 19 . De fait, leur influence financière, économique, politique et souvent même géopolitique, est impressionnante, et grâce à cette force financière et géoéconomique, les FMN ont toujours plus d’ambition pour se mesurer aux États, voire tenter de les dépasser dans certains domaines, ainsi qu’on l’observe de façon flagrante avec Tesla et le projet spatial de son P-DG, Elon Musk, qui a conçu et mis en service des lanceurs réutilisables sur sa fusée Falcon 9 (la plus puissante du monde).
Ouvrages des mêmes auteurs Alexandre Del Valle – Le Projet (L’Artilleur, 2019) – La Stratégie de l’intimidation (L’Artilleur, 2018) – Les vrais ennemis de l’Occident (L’Artilleur, 2016) – Comprendre le chaos syrien (avec Randa Kassis, L’Artilleur, 2016) – Le Complexe occidental (L’Artilleur, 2014) – Pourquoi on tue des Chrétiens aujourd’hui dans le monde (Maxima, 2011) – La Turquie dans l’Europe (Syrtes, 2004) – Islamisme et Etats-Unis, une alliance contre l’Europe (L’Age d’homme, 2000) Jacques Soppelsa – Les sept défis capitaux du nouvel ordre mondial (A2C, 2009) – Géopolitique du monde contemporain (en collaboration, Nathan, 2008) – Les Etats-Unis. Une histoire revisitée (La Martinière – Seuil, 2004) – Les dates clefs du dialogue régionale en Amérique latine (Ellipses, 2002) – Géopolitique de l’Asie-Pacifique (Ellipses, 2001) – Dix mythes pour l’Amérique (Ellipses, 1997) – Léxique de géopolitique (Dalloz, 1997) ISBN : 978-2-81001-023-3 © 2021, Éditions de l’Artilleur / Toucan – éditeur indépendant 16 rue Vézelay – 75008 Paris www.lartilleur.fr Le Code de la propriété intellectuelle interdit les copies ou reproductions destinées à une utilisation collective. Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles L. 335-2 et suivants du code de la propriété intellectuelle. Ce document numérique a été réalisé par Nord Compo. « Le vieux monde se meurt, le nouveau monde tarde à venir et dans ce clair-obscur surgissent les monstres. » Antonio Gramsci « Nous sommes entrés dans un monde en transformation rapide qui présente de formidables opportunités, notamment technologiques. Mais ce monde est aussi celui de l’incertitude et de l’instabilité, où le rapport de force redevient le mode de règlement des différends entre Nations. Le combat de haute intensité devient une option très probable. » Thierry Burkhard, chef d’état-major de l’armée de terre française SOMMAIRE Titre Ouvrages des mêmes auteurs Copyright Exergue Prélude Chapitre I - Déclin de l’Occident ? Mondialisation américaine McWorld ? La mondialisation, apogée ou crépuscule ? Ventres mous civilisationnels versus ventres durs identitaires Déclassement de l’Occident et mondialisation du virus Les leçons de la gestion chinoise et asiatique de la crise sanitaire L’Europe dupe de son interprétation utopique de la mondialisation Désoccidentalisation, antiaméricanisme et rejet des institutions multilatérales héritées de 1945 Défis géopolitiques : constantes et variables Les tendances lourdes Variables contemporaines Partie I - Les tendances lourdes Chapitre II - La période contemporaine : ordre ou désordre ? Djihad versus McWorld ? Chapitre III - De la multiplication des conflits Multiplication des conflits infra-étatiques internationalisés Échec du multilatéralisme ? Le conflit du Haut-Karabagh Deux principes de légitimité s’opposent Du rôle de la communauté internationale Le retour de la guerre dans le Caucase La Turquie est entrée en scène... Les leçons de la guerre du Haut-Karabagh Le spectre d’une guerre interétatique entre l’Ukraine et la Russie Stratégies et buts de guerres de part et d’autre Taiwan : vers un affrontement direct Chine-États-Unis ? La « surreprésentation » des conflits intraétatiques Trente-sept conflits ouverts en cours aujourd’hui La zone Sahel devenue une des plus létales au monde... L’incessant conflit du Cachemire entre Inde et Pakistan La multiplication des tensions et conflits locaux en Asie La Chine à l’assaut de la mer de Chine méridionale L’aberration géopolitique de la question nord-coréenne La superpuissance montante et revancharde chinoise Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Chapitre IV - De l’ancienne à la nouvelle guerre froide ? L’Europe, théâtre de guerre nucléaire entre États-Unis et Russie ? L’occasion manquée de l’alliance russo-occidentale (1999-2003) La rupture stratégique des années 2003-2005 La Russie, une menace plus grande que le terrorisme islamiste pour les atlantistes... L’OCS, ou l’alliance « antihégémonique » russo-chinoise redoutée par Brzezinski Chapitre V - ... ou désordre mondial multipolaire ? Fractures internes et externes Le monde n’appartiendra plus à personne... La stratégie du collier de perles Outsiders, émergents, Brics, acteurs de la désoccidentalisation du monde Inexorable montée en puissance de l’hégémon chinois Patriots vs McWorldists ? L’Europe : « impuissance volontaire » et dindon de la farce de la mondialisation ? Un objet « géopolitique non identifié » et postcivilisationnel Rejet de l’occidentalisation et de la domination américaine Monde multipolaire ou polycentrique Désoccidentalisation de la mondialisation marchande et technologique La région Asie, nouveau phare du monde Chapitre VI - Géopolitique linguistique : le français vecteur multipolaire ? L’emprise de l’anglo-américain Le paradoxe québécois Francophonie avec un grand F : l’Organisation internationale de la francophonie Partie II - Variables contemporaines Chapitre VII - Islamisme et terrorisme mondialisés De quoi parle-t-on au juste ? Les pôles majeurs du totalitarisme vert : de l’islamisme institutionnel au djihadisme L’erreur occidentale et atlantiste des alliances contracivilisationnelles État des lieux et stratégies du djihadisme Une menace asymétrique à la fois exogène et endogène Djihadisme low cost ubérisé Situation actuelle/future de Daesh/al-Qaida Daesh n’est pas mort Daesh conserve un trésor de guerre et de dizaines de milliers de combattants djihadistes Al-Qaida redevenue la plus puissante organisation terroriste L’Asie du Sud, nouvel horizon des centrales djihadistes Le djihadisme en pleine ascension au Sahel Les islamistes ont une vraie stratégie, contrairement à leurs ennemis et à l’Occident... Nomades musulmans peuls fuyant la désertification en razziant les sédentaires du Sud : un double mouvement de fond climatique et civilisationnel Extension du domaine du djihadisme : de la Somalie à l’Afrique australe Le terrorisme islamiste : guerre psychologique et propagande par l’action Les cerveaux djihadistes recrutent des délinquants pour leur aptitude à la violence L’efficacité de la stratégie de l’intimidation Le continuum djihadisme-islamisme et le chantage à l’islamophobie La vulnérabilité des sociétés démocratiques et multiculturelles Chapitre VIII - Prolifération nucléaire et aléas du désarmement Des origines du nucléaire militaire à l’échec des traités de désarmement et de non-prolifération Les conséquences géopolitiques de l’atome Bouleversement des hiérarchies militaires étatiques classiques Le « club nucléaire » La prolifération nucléaire Le cauchemar du « terrorisme nucléaire » Quid de l’Iran ? Le commerce des armes à l’heure du système postbipolaire Contrôle des armements ? Désarmement ? Le maigre bilan de décennies de désarmement Les accords bilatéraux de Salt I et Salt II La période 1985-2020 : du contrôle des armements au concept de désarmement, Start I, Start II, Start III et New Start Les traités multilatéraux Relance de la course aux armements sur fond de néoguerre froide... Chapitre IX - Le crime organisé : grand gagnant de la mondialisation ! Blanchiment : la mondialisation financière et le capitalisme dérégulé, des opportunités pour le crime organisé Le trafic de drogue, entreprise presque aussi lucrative que le pétrole ! Le trou noir narco-islamiste afghan Géographie du crime organisé Mafias italiennes Mafias albanaises Les cartels d’Amérique centrale Mafias russophones Mafia nigériane La France, les quartiers de non-droit ou la loi des caïds Drogue et terrorisme : la face cachée mafieuse de Daesh et al-Qaida Trafic d’êtres humains et prostitutions : esclavage des temps modernes L’incroyable business de l’immigration clandestine Les passeurs de clandestins, à la pointe du marketing digital et de la mondialisation... Trafic d’organes Trafic d’espèces sauvages et braconnage Contrefaçon et mondialisation marchande Trafics d’armes L’arrivée sur le marché des armes 3D... La 5G sera un casse-tête sécuritaire Cybercriminalité et Darknet Les criminels profitent de la crise sanitaire ! Chapitre X - Géopolitique écoénergétique, guerres du gaz et guerres de l’eau... La menace du réchauffement climatique et de ses conséquences Les climatosceptiques en question Les éléments de préoccupation s’accumulent L’accord de Paris, enjeux de rivalités de leadership entre nations Transition énergétique et croissance économique : l’ultrapolarisation du débat aux États-Unis Vers une « civilisation écologique », le nouveau leitmotiv de Xi Jinping Le projet chinois de « croissance verte », aux antipodes de la décroissance des écolos européens : un autre grand déclassement en cours... Vers un nouveau paradigme écoénergétique Depuis la COP 21, les tentatives de résurgence de l’Ancien Monde paraissent peu à peu s’éloigner... Pétrole et gaz de schiste et filières nucléaires, les énergies renouvelables n’ont pas encore gagné la partie... Les gazoducs russo-européens, des épines dans le pied pour l’hégémon américain... Le nucléaire : énergie de tous les dangers pour certains, solution de décarbonation pour d’autres... La Chine une fois de plus leader dans le domaine L’enjeu géoéconomique majeur des terres rares, la Chine toujours no 1 Les terres rares, clé des énergies renouvelables, mais désastre pour l’environnement... Stress hydrique et barrages : les guerres de l’eau en question Quelques chiffres Le contrôle des rivières, mers et océans, source de conflits Guerres de l’eau entre la Turquie et ses voisins La Turquie à l’assaut des réserves de gaz et de pétrole de Méditerranée orientale Conflit avec Chypre et la Grèce Conflit avec l’Égypte autour de la Méditerranée et de la Libye De l’Asie centrale au Golfe arabo-persique La Chine à la conquête de la puissance maritime et des ressources subaquatiques Partie III - Nouveaux défis Chapitre XI - Les défis démographiques 1/ L’explosion démographique. De quelques chiffres édifiants Explosion de la population mondiale Le déséquilibre démographique international L’hiver démographique des Occidentaux et d’une partie de l’Asie ? Russie, trop grande trop vide... La démographie, un facteur critique pour l’alimentation Relativisons les chiffres catastrophiques Démographie et Inégalités 2/ Les migrations internationales « Préparez Venus viendra Mars... » Les conséquences sociopolitiques et géocivilisationnelles de l’immigration Quelques chiffres qui parlent d’eux-mêmes Le droit d’asile, principal prétexte à la migration clandestine Le tabou du coût de l’immigration Pause migratoire ? Chapitre XII - Puissances multinationales et digitales face aux États souverains La puissance des firmes multinationales Délocalisation, fiscalité avantageuse et comportements parfois criminels Les Gafam en question... ou l’économie virtuelle à l’assaut du monde ancien La puissance financière, politique et technologique démesurée des Gafam Multinationales prédatrices et capitalisme ubérisé : l’émergence d’un nouveau sous-prolétariat Le bras de fer entre les cryptomonnaies et les États Liberté individuelle, espionnage Les Gafam, danger pour les États... sauf pour les deux hyperpuissances qui les ont créés... Réseaux sociaux, entre trop grande liberté et néocensure très orientée... Oligopole des Gafam face au Big Brother chinois des « BATX » La guerre froide sino-américaine et l’enjeu géoécomique majeur de la 5G « Le Yalta des mondes digitaux » La nationalisation des moyens d’information Chapitre XIII - Crise sanitaire et biotech, l’Europe déclassée ? État des lieux et chiffres La crise économique est une crise sanitaire Géopolitique de la Covid-19 L’endettement colossal et le spectre d’une banqueroute de l’économie mondialisée La France et l’Europe au bord de la faillite ? Explosion de la dette et risque d’implosion de l’euro Perdants et gagnants de la crise sanitaire Biotech, ordinateurs quantiques, thérapies génétiques : la Chine et l’Asie en voie de déclasser l’Occident ? Nanotechnologies Physique et Internet quantique Médecine régénérative et édition génomique Chapitre XIV - Démondialisation ou désoccidentalisation de la mondialisation ? Postmondialisation ? Ralentissement de la mondialisation chinoise et postmondialisation régionalisée De la troisième vague de mondialisation à la démondialisation Doublement du commerce extérieur en valeur, mais augmentation très modérée du taux d’importation Des échanges de services demeurés localisés Le retour du bilatéralisme, reflux des investisseurs internationaux et reréglementation financière Reréglementation financière, effets du Brexit et renationalisations tous azimuts Monétisation et nationalisation de la dette publique Flottement des changes et retour au contrôle des changes L’arrêt durable des voyages d’affaires et du tourisme de masse Conclusion - Gouverner c’est prévoir, le désordre actuel était prévisible... Cartes géopolitiques Bibliographie des ouvrages cités Index des noms propres Remerciements Prélude Cet ouvrage a été écrit à quatre mains, par deux géopoliticiens appartenant à deux générations successives, mais complémentaires. La mienne a été en quelque sorte pionnière, lorsque, avant même d’être nommé président de l’Université de Paris Panthéon Sorbonne (1982-1989), à une époque où la géopolitique n’était pas à la mode, je fus titulaire, en 1978, de la première chaire de Géopolitique, recréée en Sorbonne, après des décennies de mise à l’écart d’une discipline bafouée par les errements de Karl Haushoffer et de ses disciples... Vingt-deux ouvrages et des années plus tard, je me félicite du fait que notre discipline soit désormais en odeur de sainteté et « démocratisée », même si l’on peut déplorer des usages parfois intempestifs du terme par des journalistes. Parallèlement aux travaux d’Yves Lacoste, puis, un peu plus tard, à ceux de Michel Korinmann, de François Thual ou de Pascal Lorot, et dans le sillage du général Pierre Marie Gallois, nous fûmes en quelques sorte des pionniers de l’école française de géopolitique, aujourd’hui écoutée ailleurs dans le monde, notamment en Italie ou aux Etats-Unis. La génération d’Alexandre del Valle, auteur prolixe, que j’ai suivi depuis ses premières publications, assure la relève. Et c’est dans cet esprit intergénérationnel et de complémentarité, que j’ai eu l’idée d’écrire avec lui, en novembre dernier, le présent ouvrage. J’avais d’ailleurs envisagé au départ de l’intituler Le nouveau désordre mondial, mais le texte a évolué aux cours des mois et de nos échanges, à l’image de la démarche géopolitique faite de constantes et de variables, au point d’aborder des domaines et pistes d’étude au départ non envisagés. Del Valle figure depuis de nombreuses années aux tous premiers rangs de cette nouvelle génération de géopoliticiens qui n’a guère à rougir de la comparaison avec son homologue anglo-saxonne. Souhaitons ainsi que notre collaboration contribue, aux yeux de ses lecteurs, à l’intérêt de cet ouvrage. Au-delà de la géopolitique, c’est aussi un même lien d’amitié avec le personnage hors pair qu’était Pierre-Marie Gallois, l’un des grands de cette discipline, qui a achevé de nous convaincre de commettre ensemble ce manuel de géopolitique engagé. Nous dédions La Mondialisation dangereuse à ce stratège de renommée mondiale admiré par des personnalités aussi illustres et différentes que Jean-Pierre Chevènement ou Henri Kissinger, lequel venait le consulter à Paris. Gallois nous a beaucoup transmis. Il venait d’ailleurs de la génération d’avant la mienne : il avait connu les deux guerres mondiales. Sa carrière de militaire, fut hors-norme (officier-pilote, résistant engagé dans la Royal Air Force contre l’Allemagne nazie, stratège et conseiller de Charles De Gaulle, père de la force de frappe nucléaire française, impliqué dans le programme nucléaire israélien) et son parcours intellectuel, tout d’abord au sein de la revue créée à Londres par Raymond Aron sur demande de De Gaulle, La France Libre, puis comme enseignant de géopolitique et de stratégie à l’OTAN et à l’Ecole de Guerre, puis, bien sûr comme essayiste, fut exceptionnel. Ses ouvrages 1 remarqués sur les folles aventures militaires des Etats-Unis en ex-Yougoslavie et en Irak nous inspirent encore. Dans les années 1990, alors qu’il écrivait son oeuvre, il échangeait régulièrement avec nous, à son domicile de la rue Rembrandt, à Paris, comme à l’Institut international de géopolitique de Marie France Garraud. Jusqu’au soir de sa vie, il garda son extraordinaire perspicacité quant à l’évolution du monde. Lucide jusqu’au pessimisme, mais jamais passéiste ou dépassé, ce polyglotte au savoir encyclopédique portait un regard sans concession sur l’évolution de la France, de l’Europe, de l’Occident et du monde. Il entrevoyait le désordre mondial en devenir ; le processus inexorable de la multipolarisation de l’échiquier mondial post-Guerre froide et de sa désoccidentalisation ; la montée de la Chine et des puissances émergentes et ou revanchardes d’Asie et du Sud ; le péril de l’islamisme radical, longtemps encouragé par les Occidentaux, surtout américains ; les effets paradoxaux et dangereux d’une nucléarisation militaire mondiale désormais hors de contrôle, de surcroît accélérée par la nouvelle guerre froide Occident-Russie qu’il déplorait. Il redoutait aussi les revers de la mondialisation marchande anglo- saxonne, objet central de ce livre, tout aussi incontrôlable et de plus en plus subvertie par la Chine au détriment des dindons de la farce ouest-européens, et il déplorait le processus de dévalorisation de l’intérêt général et du sens national, phénomène de société purement occidental qui promettait, selon lui, nos vieilles sociétés ouest- européennes au déclin, qu’il nommait la « sortie de l’Histoire ». Gageons qu’il ait péché par excès de pessimisme... Jacques Soppelsa 1. Géopolitique : Les Voies de la Puissance, Paris, Plon, 1990 ; La France sort-elle de l’histoire ? Paris, L’Age d’Homme, 1999 ; Le Sang du pétrole, les guerres d’Irak, 1990-2003, Paris, L’Age d’Homme, 2002 ; L’heure fatale de l’Occident, Paris, L’Âge de l’Homme, 2004. CHAPITRE I Déclin de l’Occident ? « Chaque culture traverse les phases évolutives l’homme en particulier. Chacune a son enfance, sa jeunesse, sa maturité et sa vieillesse. » Oswald Spengler, Le Déclin de l’Occident (1918) Spengler avait-il raison ? Dans son essai Le Déclin de l’Occident 1 , le philosophe allemand, adepte d’une vision des civilisations marquées par des phases d’expansion, d’apogée et de chute, annonçait le déclin de l’Occident au moment même de son zénith. Les Européens étaient les maîtres incontestés du monde, de la science, de la technologie, des échanges et de l’industrialisation. Le paradoxe n’est qu’apparent, car l’expansion et le progrès ne sont jamais des acquis définitifs et ils peuvent précéder des processus d’involution et de régression. En dépit de son déterminisme historique, Spengler avait pressenti il y a un siècle que l’Occident – alors encore colonial – allait être détrôné, rongé qu’il était déjà de l’intérieur par des doutes existentiels qui allaient en faire une civilisation complexée. Beaucoup se réfèrent encore à lui parmi les déclinistes pour annoncer le déclassement de la vieille Europe, freinée par sa réticence à employer le hard power, sa culpabilisation civilisationnelle, son formalisme juridico-constitutionnel, ses scrupules moraux qui l’empêchent d’engager une politique de puissance, comme on le constate depuis les années 2010 vis-à-vis de la Turquie conquérante d’Erdoğan. Les Européens brillent d’ailleurs de plus en plus par leur absence un peu partout dans le monde, si l’on met de côté les cas de la France et de la Grande- Bretagne. Si l’on s’interroge sur l’état actuel de l’Occident, on constate un lien évident entre ce qu’a annoncé Spengler et les conséquences de la mondialisation qui, dans sa lecture sans frontiériste, implique un effacement des identités et du principe même de souveraineté. Presque cent ans plus tard, à l’analyse de Spengler fait étonnamment écho le positionnement décomplexé des puissances du nouveau monde multipolaire comme la Russie de Vladimir Poutine, la Turquie de Recep. Tayyip Erdoğan, l’Inde de Narendra Modi, et, bien sûr, la Chine de Xi Jinping, qui semble incarner le contre-modèle – autoritaire, certes – le plus efficace face au système libéral-démocratique occidental. Ces puissances, qui voient, à tort ou à raison, l’Occident impérial comme une civilisation déclinante et décadente, sont toutes souverainistes donc aux antipodes de l’universalisme occidental. De ce point de vue, la mondialisation, comprise par les élites américaines et ouest-européennes comme le triomphe de leur idéologie planéto-libertaire devant nécessairement déboucher sur la fin des identités, peut être analysée comme une dernière phase d’un processus « morphologique » de disparition civilisationnelle pour paraphraser Spengler. Ceci conduit surtout la vieille Europe à délégitimer la puissance souveraine et sa propre identité au nom d’une vision internationaliste qui est non seulement vouée à l’échec, mais qui ne peut qu’accentuer la propension des autres civilisations à haïr l’Occident, dont l’Union européenne apparaît comme le ventre mou voué à servir les intérêts de l’Empire anglo- américain. De fait, le déclin de l’Occident complexé semble plus concerner, aujourd’hui, le Vieux Continent que les États- Unis, lesquels n’ont pas renoncé à la recherche de la puissance et de l’hégémonie, et investissent bien plus que les Européens dans l’innovation, la R&D, les applications, le soft power et la puissance militaire. Toutefois, la fracture croissante au sein de la société américaine qui oppose – jusqu’au risque de nouvelle guerre civile – l’Amérique WASP judéo-chrétienne européenne conservatrice, d’une part, à l’Amérique-monde démocrate, multiculturaliste, de l’autre, montre que la puissance étatsunienne elle-même peut être prise au piège de sa propre doxa planétariste. Notre diagnostic est que si cette idéologie de la mondialisation (McWorld) a été mise en œuvre au départ par l’hyperpuissance américaine pour asseoir sa domination planétaire en détruisant la souveraineté et les traditions culturelles des autres nations – mais pas la sienne ! –, ses effets en termes de déstructuration et d’hétérogénéisation identitaire s’avèrent à terme subversifs, y compris pour ses créateurs américains, désormais incapables de contrôler leur Golem. C’est là tout le problème « géocivilisationnel » de l’Occident. Mondialisation américaine McWorld ? Si la mondialisation marchande à l’anglo-saxonne s’est faite au détriment d’autres types de capitalismes (modèles scandinave, germano-français ou méditerranéen), c’est parce qu’elle a été lancée dans sa forme nouvelle, depuis les années 1990, par l’Empire américain et favorisée par son immense puissance de frappe financière, puis sa domination politico-stratégique, culturelle et économique sur la vieille Europe, d’ailleurs reconstruite à cette condition après la Seconde Guerre mondiale. La mondialisation marchande et consumériste, telle que nous la connaissons depuis la fin de la guerre froide, fort opposée aux précédentes mondialisations préindustrielles (mongolo-chinoise, vénitienne, génoise, portugaise ou hollandaise), est en fait une projection vers l’extérieur d’un modèle anglo-saxon capitaliste largement inspiré par les dérégulations néolibérales thatchérienne et reaganienne des années 1980 (chapitre IV). Elle a longtemps profité essentiellement aux intérêts planétaires de l’empire multiculturaliste américain piloté par le camp démocrate – aujourd’hui en guerre contre les souverainistes trumpistes – et aux multinationales qui portent ce modèle. La culture que ces puissances multinationales et digitales anglo-saxonnes venues des États-Unis diffusent (voir chapitre XII) est fondée sur le fast-food, le fast fashion, le mimétisme des stars de la pop ou d’Hollywood, l’ubérisation et la déhiérarchisation du travail, puis le fast thinking du politically correct, de la cancel culture, des revendications des minorités (positive discrimination, woke, BLM) portées à leur paroxysme dans les milieux universitaires et médiatiques, les séries de Netflix ou les réseaux sociaux des Gafam. Cependant, si l’on met à part le cas des sociétés musulmanes en voie de réislamisation radicale (chapitre VII), deux États-nations du monde multipolaire offrent une résistance farouche à ce modèle de mondialisation à l’anglo-saxonne baptisée McWorld par le politologue américain Benjamin Barber, et appellent les autres nations émergentes ou multipolaristes à réhabiliter des modèles géocivilisationnels enracinés qui remettent totalement en question l’internationalisme américano-occidental : la Russie et la Chine. Si Pékin s’oppose à McWorld en désoccidentalisant la mondialisation et en la retournant contre les États-Unis pour asseoir la domination mondiale du modèle autoritaire chinois antioccidental, Moscou accuse la mondialisation anglo-saxonne et les États- Unis de détruire les identités nationales et de menacer la souveraineté russe et sa civilisation slavo-orthodoxe. La Russie postsoviétique et poutinienne se présente même comme le dernier rempart face au déracinement opéré par McWorld et le seul pôle – multipolaire – de défense de l’Europe et des traditions judéo-chrétiennes face à une mondialisation atlantiste et marchande aux mains de l’Empire américain (chapitre V). Dans le même temps, le monde musulman remet frontalement en cause le libertarisme occidental jugé pervers et déstructurant pendant que les nations émergentes du Sud, notamment l’Inde, aux mains des adeptes du radicalisme hindoutva du parti BJP au pouvoir, le Brésil de Jair Bolsonaro ou les nations d’Afrique, du Moyen-Orient et d’Asie, allient toutes leur développement à une fierté civilisationnelle et nationaliste. La mondialisation, apogée ou crépuscule ? Pour les adeptes d’une vision idéaliste de la politique mondiale, la globalisation libérale conduirait inéluctablement à la fin des égoïsmes nationaux, à l’avènement de la paix universelle, et ne pourrait que renforcer de façon linéaire le processus de démocratisation et d’unification de la planète au profit d’un multilatéralisme pacifiant, voire d’une gouvernance mondiale. Cette idéologie de la « mondialisation heureuse », notamment portée par des penseurs libéraux comme Alain Minc 2 , Thomas Friedman (La Terre est plate), ou néo-hégéliens comme Francis Fukuyama, est aujourd’hui largement remise en question par le fait que conflits et guerres n’ont pas disparu, que la pauvreté et les inégalités progressent et que des pans entiers de la planète demeurent exclus de la digitalisation. D’après le géographe John Agnew, la mondialisation pousserait inéluctablement à l’effacement des identités et des nations. Selon lui, cinq tendances à l’œuvre depuis la fin de la guerre froide, pas forcément toujours vertueuses, seraient inévitables : l’effacement des identités nationales et ethniques à la suite de l’intensification des flux migratoires ; les inégalités croissantes conduisant à l’élargissement du fossé Nord-Sud ; la « métropolisation » comme moteur de la croissance économique mondiale ; la montée du supranationalisme au détriment des souverainetés des États-nations et la globalisation de la production et des mouvements financiers qui modifieraient et affaibliraient les marges de manœuvre économiques des États 3 . D’autres, notamment le politologue Bertrand Badie en France, ont développé cette thèse dans le sens d’une « désouverainisation » et donc d’une réduction de la puissance de l’État déclassé dans son ancien statut d’acteur majeur des relations internationales au profit d’organisations internationales, des multinationales et des firmes digitales qui annoncent l’avènement du capitalisme ubérisé et du multilatéralisme. Le présent essai prend le contre-pied de cette lecture idéologique de la mondialisation, car en tant que théâtre d’échanges, de rivalités et de conflits entre puissances, la mondialisation, processus en réalité neutre, peut favoriser l’expansion de puissances hégémoniques, souverainistes ou même néo-impériales qui savent la canaliser, comme les deux supergrands chinois et étatsunien, notamment. Notre analyse prend acte de l’essoufflement d’une idéologie qui se heurte de plein fouet au réel et dont les promoteurs et protagonistes (institutions internationales, multinationales, Gafam, dirigeants des pays occidentaux) sont de plus en plus remis en cause par les États-nations et les peuples, demandeurs de « resouverainisation » et donc de démondialisation. Notre thèse soutient que le processus de mondialisation n’a pas abouti à la disparition des identités et des États, car il intensifie avant tout une concurrence entre États, seuls ceux qui ne savent pas en tirer profit ou ne sont pas assez performants ou volontaires perdent de leur puissance souveraine. La mondialisation désigne en fait simplement le processus d’interconnexion à l’échelle planétaire des affaires et des communications qui s’est accéléré avec la fin de la guerre froide et l’ouverture des anciens pays communistes à la liberté de circulation des biens, des informations et des personnes. Il s’agit là d’une prolifération mondiale de technologies de pointe qu’il convient de ne pas confondre avec les utopies cosmopolites liées aux projets de conquête mondiale qui ont toujours existé dans l’histoire (Alexandre le Grand, Empire mongol, communisme soviétique, etc.) avec souvent peu de durabilité en raison de leur caractère coercitif, générateur de réactions antihégémoniques (Brzezinski). Dans la mesure où cette vision a été essentiellement conçue et portée au départ par des pays occidentaux, la mondialisation est par ailleurs souvent perçue par d’autres civilisations, qui forment les quatre cinquièmes du globe, comme un avatar de l’impérialisme occidental. Dans son ouvrage La Revanche de la géographie, le politiste américain Robert D. Kaplan explique que cette mondialisation, loin de supprimer les identités lorsqu’elle affaiblit l’État, peut au contraire les réveiller, et même les radicaliser en réaction : « Le pouvoir né de la communication de masse [...], les technologies de communication, ont permis la montée en puissance des mouvements panislamiques, de l’Afrique noire à l’Asie, et elles ont facilité les soulèvements populaires dans de nombreux États musulmans 4 . » Cette idée est présente également dans les analyses de Samuel Huntington, pour qui la mondialisation et Internet n’ont pas fait disparaître les identités des peuples, mais ont permis a contrario à ces derniers d’accéder à une « conscience civilisationnelle » déterritorialisée et plus large, de sorte qu’un exilé serait aujourd’hui bien plus lié à son pays d’origine et s’assimilerait bien moins facilement à la société d’accueil qu’avant l’ère des télécommunications où les émigrés étaient coupés de leur milieu d’origine par les lois de la géographie. De ce point de vue, la mondialisation – au sens neutre et technologique et non politique du terme – n’empêche pas les appartenances de compter dans les dispositifs politiques et géopolitiques. Elle favoriserait même la constitution de pôles géoéconomiques et civilisationnels : accords de libre-échange du nord de l’Amérique (Alena, voir cartes n o 3 et 4 5 ), Union européenne et AELE, Communauté des États indépendants et Union économique eurasiatique 6 (ex-URSS), OCS (Organisation de la conférence de Shanghai qui réunit Russie, Chine et quatre pays d’Asie centrale opposés à l’Otan, voir carte n o 3), pays de l’Est asiatique (Asean, Apec, voir cartes n o 3 et 4), Conseil turcique, qui réunit cinq États turcophones : Turquie, Azerbaïdjan, Kazakhstan, Ouzbékistan et Kirghizstan (voir carte n o 11), monde islamique (cinquante-sept pays musulmans de l’OCI, Ligue islamique mondiale), zones de libre-échange latino-américaines et interafricaines 7 . Les blocs géoéconomiques (voir carte n o 2), ethnoreligieux, les particularismes, les séparatismes et les conflits identitaires sont en fait encouragés par la globalisation, de ce fait régionalisée, tandis que le côté « unificateur » universaliste de cette dernière ne touche que les intelligentsias occidentales mondialisées. On ne rappellera d’ailleurs jamais assez que l’ensemble des puissances émergentes/réémergentes du monde non occidental (Russie, Chine, Inde, Brésil, pays émergents, non alignés), donc multipolaire, n’a pas du tout renoncé aux souverainetés et identités nationales, ni aux politiques de puissance qui sont présentées comme un mal absolu par l’Union européenne. Bien au contraire. Totalement opposés à la gouvernance occidentale, les adeptes du multipolarisme revendiquent un ordre mondial décentralisé fondé sur l’autonomie, la non-ingérence dans les affaires intérieures de chacun et le rejet de l’universalisme occidental considéré comme un masque d’une nouvelle forme d’impérialisme arrogant et hypocritement moralisateur (droits de l’homme, politiquement correct, pandémocratisme, etc.). La mondialisation n’affaiblit donc que les États déjà amoindris et/ou démissionnaires de leur souveraineté. Elle renforce au contraire les États stratèges adeptes de la Realpolitik et de la guerre économique qui cherchent à instrumentaliser la mondialisation vue comme un levier de concurrence et d’expansion de leurs puissances. La Chine est à cet égard l’exemple parfait de cette vision antimondialiste et souverainiste de la globalisation. Ventres mous civilisationnels versus ventres durs identitaires Le lien entre géopolitique et identité constitue l’un des fils rouges du présent ouvrage. Nous postulons que les nations ou les civilisations qui diluent leurs identités au nom de la mondialisation et du multilatéralisme renoncent de ce fait, tôt ou tard, à leur puissance et à leur souveraineté et mettent ainsi en péril leur avenir d’un point de vue géocivilisationnel. Schématiquement, on peut diviser l’échiquier géopolitique mondial en deux catégories d’acteurs. La première est composée de puissances souverainistes qui s’appuient sur leur identité civilisationnelle et défendent leurs intérêts nationaux et qui voient la mondialisation comme un champ d’expansion de puissances rivales ou antagonistes. Cette catégorie comprend notamment des nations émergentes et identitaires caractérisées par une croissance économique soutenue et un activisme sur la scène internationale. On trouve parmi celles-ci entre autres la Chine, la Russie, l’Inde, la Turquie, les émergents du Sud et les États-Unis (qui sont, certes, en perte de vitesse et plus isolationnistes qu’interventionnistes depuis une vingtaine d’années). Ces puissances participent toutes à une reconfiguration des relations internationales causée par la fin du monde bipolaire et l’émergence de la multipolarité marquée par un déplacement de l’épicentre géopolitique du monde de l’ouest vers l’est de l’Eurasie. La deuxième catégorie est composée d’acteurs géopolitiques de second ordre ou d’anciennes nations hégémoniques ou coloniales d’Europe de l’Ouest ayant volontairement renoncé à toute politique de puissance et de civilisation. Certains d’entre eux, dépourvus de ressources, stagnent sur le plan économique et, pour des raisons évidentes, sont plus sujets qu’acteurs des relations internationales. D’autres se retrouvent dans une impasse historique par manque de volonté et surtout par un refus idéologique de mettre au premier plan la défense des intérêts nationaux et des citoyens autochtones au nom d’un multiculturalisme naïf et d’un multilatéralisme incarnés par l’ONU et l’Union européenne. Ces deux organisations, impuissantes sur le plan international, plaident pour l’émergence d’intérêts supranationaux – qui par définition n’existent pas – et ne peuvent justifier leur existence qu’en promouvant l’effacement des frontières des pays qui acceptent d’abdiquer leur souveraineté, sans pour autant parvenir à créer une nouvelle souveraineté supranationale. Ce dernier groupe en voie de désouverainisation, donc en train de « sortir de l’Histoire », comme l’avait annoncé le général Gallois, comprend les États de l’Europe continentale dont le processus de déclassement en cours découle de l’illusion que leur richesse économique passée et leur idéologie pacifiste et multiculturaliste les protégeront indéfiniment du monde extérieur. Pris au piège de l’illusion dangereuse selon laquelle ils vivront indéfiniment protégés des menaces externes par leur pacifisme et leur renoncement à l’identité, ces non-puissances ouest-européennes ne semblent plus capables de défendre sur leur sol leurs propres valeurs et civilisation, menacées non pas par une immigration extra-européenne qui serait positive si elle était assimilée, mais par les appétits de conquête de prédateurs externes : la Chine impériale renaissante, l’empire acculturant McWorld, et les puissances revanchardes panislamistes, comme la Turquie néo-ottomane d’Erdoğan, qui instrumentalisent l’ouverture européenne et y embrigadent les communautés immigrées musulmanes pour servir leur expansionnisme, remplissant ainsi le vide laissé par les États désouverainisés et désindustrialisés d’Europe occidentale. Déclassement de l’Occident et mondialisation du virus La perte d’attractivité et de magistère moral des Occidentaux au profit des modèles multipolaristes, qui s’est accrue depuis la fin du siècle dernier, a été considérablement amplifiée par les crises sanitaires (chapitre X et XII) et économico-financières de 2008-2020, accélérant ainsi le double processus de « démondialisation » (chapitre XIV) et de désoccidentalisation du monde en voie de multipolarisation. La crise de la Covid-19 a retiré les dernières illusions de ceux qui croyaient encore à la supériorité des acquis, valeurs et avancées de la civilisation occidentale par rapport au reste du monde. Avec un recul de près de deux ans déjà, la Chine autoritaire, considérée jadis comme condamnée à l’imitation et donc à être toujours à la traîne de l’Occident triomphant et vertueux, a démontré qu’elle était capable de gérer de manière bien plus efficiente que l’Europe la présente crise, à la fois sur les plans sanitaire, technologique, économique, diplomatique et financier, et qu’elle n’est plus suiviste mais avant-gardiste. Elle compte même pleinement profiter de l’effondrement économique et social de la civilisation européenne pour pouvoir s’imposer d’ici quelques années comme la première puissance économique et géopolitique mondiale (chapitre XIII). La Chine et son aire géocivilisationnelle sont les zones où la croissance positive oscille à nouveau depuis fin 2020 entre 6 et 10 % par an, pendant que l’hémisphère nord-occidental en voie de paupérisation continue son lent déclin géopolitique et technologique, Europe de l’Ouest en tête. Les États-Unis restent, certes, combatifs et résilients, tandis que l’Europe peine à devenir un acteur géopolitique identifiable. La recherche, par le pouvoir de Pékin, de la suprématie mondiale passera par la maîtrise du numérique, des nanotechnologies, des neurosciences, de la 5G (chapitre IX), de la génétique, de l’espace, et même de la transition écoénergétique (chapitre XII), qui ont été lancés par les Occidentaux mais que la Chine leur ravit en profitant de leur incapacité à mettre en œuvre des plans de développement et d’investissement ambitieux et de long terme (R&D). En cause aussi, l’avidité de leurs multinationales qui ont accepté de facto d’être pillées technologiquement par Pékin en échange de facilités de délocalisations et de contrats commerciaux léonins... Dans ce contexte, la question qui vient naturellement à l’esprit est celle de la pertinence du modèle chinois, et, plus largement, la plus grande efficience des modèles autoritaires asiatiques ou illibéraux et de la prévalence de la stabilité à l’asiatique, qui concilie les opposés (yin et yang) puis privilégie le groupe à l’individu et l’ordre social à la liberté hédoniste à l’occidentale, de plus en plus associée à l’ingouvernabilité et au chaos. Les leçons de la gestion chinoise et asiatique de la crise sanitaire Avec le recul nécessaire, un an et demi après les premiers confinements qui ont paralysé et continuent de paralyser les pays occidentaux (surtout l’Union européenne) – faute de lits suffisants dans les hôpitaux, de discipline et de fermeture des frontières –, les modèles alternatifs confucéens de Taiwan, Singapour, Corée du Sud et a fortiori de la Chine ont incontestablement fait preuve d’une plus grande efficacité, au prix d’une fermeture précoce des frontières, d’un traçage massif liberticide, de quarantaines drastiques, mais relativement courtes, et d’une emprise technologico-politique sur les citoyens. La Chine, d’où est parti le virus, a jugulé la pandémie puis est parvenue à transformer rapidement cette catastrophe économico-sanitaire en une occasion d’accélérer le déclassement d’un Occident qui n’a pas semblé tirer les leçons de son hyperdépendance vis-à-vis de l’usine du monde chinoise désormais autonomisée. Soudainement, le modèle nationaliste-maoïste-confucéen, fondé sur l’ordre autoritaire et la soumission des individus à l’État-nation, s’est posé en alternative au rêve libertaire sans frontiériste occidental dépeint par Thomas Friedman dans son ouvrage La Terre est plate, qui annonçait un monde unifié sur les ruines des identités et des frontières au nom d’un consumérisme anglophone planétaire. Les questions qui viennent alors à l’esprit, d’un point de vue géopolitique, sont les suivantes : ce monde « plat » promis par les adeptes de la « mondialisation heureuse » est-il seulement un modèle viable ou au contraire dangereux pour ceux qui en sont dupes ? Le projet de suprasociété mondiale mis en œuvre par les élites de McWorld (Benjamin Barber, voir infra) ne s’apparente-t-il pas à une périlleuse utopie déconstructrice ? Celle-ci n’a-t-elle pas déjà fait disparaître des milliers de langues minoritaires, donc des cultures, au nom même d’une fausse « diversité » uniformisatrice ? Cette mondialisation n’est-elle pas menaçante lorsqu’elle délégitime l’État-nation – pourtant le plus à même de protéger les citoyens et de faire respecter un « vouloir-vivre ensemble », lorsqu’elle déconstruit ou diabolise les traditions, les normes sociales, les valeurs et les principes d’autorité au nom d’un libertarisme consumériste, alors que les normes et l’autorité sont vitales pour échapper à la barbarie ? La diabolisation de l’identité portée par ce projet de Village mondial (« Global village 8 ») au nom d’une pensée « cosmopolitiquement correcte » n’est-elle pas une trahison de la diversité qui, par essence, est composée d’identités ? Face à ce risque d’anomie bien analysée par les sociologues, la Chine autoritaire, qui n’est pas dupe de la confusion fâcheuse entre mondialisme et mondialisation, et qui utilise au contraire cette dernière pour servir ses intérêts nationaux (« post-mondialisation »), apparaît de plus en plus comme un modèle alternatif efficient. Elle nous rappelle que le monde multipolaire qui se dessine n’est pas seulement fait de pôles émergents et de puissances jalouses de leurs prés carrés géopolitiques, mais aussi de polycentrisme des valeurs, celles de l’Occident libertaire- mondialisé étant perçues par les autres civilisations comme une menace idéologique anarchisante, acculturante et civilisationnellement mortelle. La crise de la Covid-19 a brutalement rappelé les effets parfois tragiques de la mondialisation marchande. Ses effets néfastes ont déjà fait leurs preuves avec la prolifération ininterrompue – depuis les années 1990 – du crime organisé transnational (chapitre VIII), de l’islamisme radical (chapitre VII), de la pollution environnementale et des délocalisations/désindustrialisation, génératrices d’hyperdépendance ; de l’appauvrissement culturel et de la destruction des liens réels liés aux réseaux sociaux mondialisés et aux industries du divertissement et médias ; sans oublier les migrations incontrôlées et l’affaiblissement des souverainetés et identités nationales qui préparent, en réaction, un violent retour du refoulé identitaire. C’est d’ailleurs probablement pour avoir osé annoncer – dans son ouvrage prémonitoire, Le Choc des civilisations – que la mondialisation marchande et l’empire consumériste McWorld n’allaient pas créer une fraternité universelle mais au contraire accentuer les chocs de civilisations et conflits identitaires que Samuel Huntington a été conspué par l’intelligentsia occidentale. L’Europe dupe de son interprétation utopique de la mondialisation La thèse majeure du présent essai est que la mondialisation a révélé les vulnérabilités majeures de l’Europe, ventre mou de l’Occident, qui se retrouve, de par son ouverture sans limites, exposée à toute une série de nouveaux défis qu’elle peine encore plus que les autres grandes puissances à relever : pandémie, chômage endémique, crises économiques et financières récurrentes, dépopulation des campagnes, vieillissement, fuite des cerveaux (notamment vers les États-Unis), bureaucratisation, anémie entrepreneuriale, délocalisations industrielles, dumping social asiatique, concurrence déloyale chinoise, islamisme conquérant, immigration incontrôlée, terrorisme, trafics de drogue et crime organisé, rivalités énergétiques et menaces hydriques. Un des effets secondaires et curieux de ce processus est que les Européens sont les seuls dans le monde à rejeter et diaboliser leur identités et frontières alors que les autres nations non occidentales, à commencer par la Chine, l’Inde, la Turquie, l’Asie du Sud-Est (etc.), se développent en réaction à l’universalisme occidental et utilisent au contraire la mondialisation comme un levier de leur puissance nationale et civilisationnelle. Derrière l’utopie consumériste, hédoniste et politiquement correcte de McWorld, les autres nations du monde multipolaire en gestation et a fortiori la Chine et ses alliés décèlent une nouvelle forme d’impérialisme cognitif déterritorialisé essentiellement incarné par les puissances anglo-saxonnes (« lutte pour les cœurs et les esprits », selon la doctrine du général américain David Petraeus). Cet impérialisme anglo-saxon, incarné par le soft power étatsunien d’Hollywood, des Gafam (chapitre XII), des applications, et son protectorat ouest-européen (Otan), cherche en fin de compte, sous couvert d’universalisme, à effacer les identités, traditions et souverainetés des autres acteurs, donc la diversité elle-même. Et en même temps que McWorld tente avec de moins en moins de succès d’uniformiser les mœurs à la façon libertaire, l’Occident piégé par sa lecture mondialiste de la globalisation scie la branche sur laquelle il est assis en participant à l’effacement de sa propre civilisation et de ses normes et valeurs morales fondatrices. À cet impérialisme cognitif de l’Occident mondialisé, le reste du monde en voie de multipolarisation résiste. Principalement la Chine (Gafam chinois), la Russie avec Yandex, et même l’Inde, ces pays cherchant par ailleurs à se débarrasser de l’hégémonie du dollar et à fonder des institutions internationales multipolaires alternatives à celles créées par les Occidentaux depuis 1945. Nous verrons dans les chapitres suivants que le nouveau Grand Jeu stratégique 2.0 ne fait que commencer. Cette période de mutation ne se fera pas, certes, sans que l’hégémon planétaire américain ne dise son dernier mot, donc pas sans réactions et conséquences lourdes en termes de déstabilisation, de remises en question du statu quo mondial actuel occidentalo-centré, et d’inéluctable rééquilibrage par de nouveaux rapports de force et de nouveaux pivots géostratégiques mondiaux. À l’ancienne dichotomie The West and The Rest se substitue désormais une nouvelle division des zones de puissance réparties entre l’Asie et le Reste du monde, l’Occident devant s’adapter à la perte progressive de son hégémonie planétaire comme de son magistère moral, idéologique et sociétal, largement démonétisé et contesté. Comme nous l’avons vu à l’aune de la gestion par les différents pays de la pandémie mondiale de la Covid-19, le statut des puissances sur le nouvel échiquier multipolaire sera redéfini en partie en fonction des capacités de chacune à gérer les crises sanitaire, économique et financière en cours. Les conséquences de ces crises, aux fortes implications sociopolitiques, technologiques, industrielles et géopolitiques, auront des effets multiples et profonds durant toute la décennie en cours. Désoccidentalisation, antiaméricanisme et rejet des institutions multilatérales héritées de 1945 Le centre de gravité du capitalisme, des échanges internationaux, et donc de la mondialisation marchande, est en train de basculer des États-Unis et de l’Occident vers l’Asie. Parallèlement, les institutions internationales créées sous l’impulsion américaine sont remises en question par les nouveaux acteurs géopolitiques du monde postguerre froide en voie de multipolarisation. Depuis le 11 septembre 2001 et leurs coûteuses interventions en Afghanistan, en Irak ou ailleurs, qui ont contribué à augmenter le chaos mondial, les États-Unis ont perdu une grande partie de leur capacité de séduction planétaire, même si leur industrie du divertissement, et donc leur instrument de soft power, continue d’inonder l’humanité et d’imprimer les consciences. Le politologue et stratège américain Zbigniew Brzezinski, dans son ouvrage Le Grand Échiquier, faisait cette remarque, certes cynique, quant au soft power américain : « la nature cosmopolite de la société américaine, écrit-il, a permis aux États-Unis d’asseoir plus facilement leur hégémonie dans le monde sans laisser transparaître son caractère strictement national [...]. La domination culturelle des États-Unis a jusqu’à présent été un aspect sous-estimé de sa puissance globale. Quoi que l’on pense de ses qualités esthétiques, la culture de masse américaine exerce sur la jeunesse en particulier une séduction irrésistible. Les programmes américains alimentent les trois quarts du marché mondial de la télévision et du cinéma. De ces avantages, [...] l’Amérique tire un prestige politique et une marge de manœuvre inégalés 9 ». Toujours est-il que l’Occident, associé à cette culture mondiale consumériste, déconstructrice de valeurs et d’identités, est de plus en plus rejeté par les protagonistes du monde multipolaire. Du fait de la neutralité des technologies dont les Occidentaux n’ont plus le monopole, ces puissances non occidentales sont déjà en train de démondialiser et de désoccidentaliser la globalisation, dans le cadre d’une « seconde décolonisation » (chapitre IV), parfois revancharde. Les valeurs des démocraties occidentales ne sont plus la norme. Leur universalisme discrédité par leurs entreprises guerrières, leur soutien aux révolutions de couleur qui ont déstabilisé maints régimes en ex- Union soviétique, dans les Balkans et dans le monde arabe, et leur impérialisme culturel – dont se félicitait Brzezinski – sont perçus par d’autres nations et civilisations comme un poison acculturant et le cache-sexe d’une hégémonie, sous couvert de défense des droits de l’homme et de démocratie libérale. Signe de cette perception très négative de l’universalisme libéral occidental, le document 9 du Parti communiste chinois de 2013 citait parmi les « sept périls principaux » pour l’État chinois : le « nihilisme, la démocratie constitutionnelle occidentale et les valeurs universelles occidentales 10 » ! Défis géopolitiques : constantes et variables Les différents et complexes enjeux de la mondialisation sont analysés ici dans le cadre de la démarche géopolitique. Rappelons tout d’abord ce que recouvre ce concept, longtemps ignoré (notamment des institutions universitaires) et qui a aujourd’hui littéralement inondé les médias. La géopolitique, terme popularisé il y a plus d’un siècle par le Suédois Rudolf Kjellén 11 , à la différence de la géographie politique, qui décrit l’organisation du monde divisé en États à un moment donné, analyse, d’après le général Pierre Marie Gallois, « l’influence du milieu sur l’Homme », ou encore, « l’étude des relations qui existent entre la conduite d’une politique de puissance et le cadre géographique dans lequel elle s’exerce 12 ». Pour Yves Lacoste, la démarche géopolitique « analyse les rivalités de pouvoir sur des territoires, en confrontant les points de vue des différents protagonistes 13 ». Cette dernière définition rend compte des représentations antagonistes développées par chaque camp dans le cadre de la revendication du pouvoir sur le territoire convoité, élément que nous avons défini comme la « guerre des représentations 14 ». Au-delà de ces différentes acceptions, soulignons d’emblée que certains facteurs sont relativement stables et d’autres beaucoup plus conjoncturels. Bref, il est incontournable de distinguer entre des « tendances lourdes » d’une part, et les « variables contemporaines », de l’autre, telles que définies par Fernand Braudel dans La Grammaire des civilisations. Les tendances lourdes Les tendances lourdes correspondent à des évolutions observées sur une longue période et reposent fondamentalement sur deux types de dimensions : celles qui sont liées à la géographie (l’Espace), et celles qui émargent à l’histoire (le Temps). Ce croisement entre temps et espace invite bien sûr les géopolitologues à accorder une place importante au facteur identitaire et donc aux appartenances civilisationnelles, forces motrices des « temps longs de l’Histoire », pour paraphraser Braudel. Pour ce qui est de la géographie, la taille et la position d’un État, par exemple, notions certes banales, sont déterminantes. L’existence d’une façade maritime ou son absence et donc la recherche d’un accès à la mer, figure depuis des siècles aux tout premiers rangs des préoccupations majeures des grandes nations (voir chapitre X), cet ouvrage évoquant notamment le cas de l’Arménie enclavée et prise en tenailles par ses ennemis turco-azéris, ou celui de la Russie-URSS qui a toujours recherché un accès aux « Mers chaudes 15 », d’où les tensions russo- atlantistes actuelles en mer Baltique, en mer Noire (Ukraine/Crimée), ou même passées lors de l’alliance entre les États-Unis et les moudjahidines après l’invasion soviétique de l’Afghanistan, sur la route directe de l’océan Indien. Comment ne pas souligner également le rôle ancestral (conforté par la mondialisation et l’essor soutenu du commerce international) joué à l’échelle de la planète par les isthmes et les détroits, de la Sonde à Gibraltar, du Bosphore au Sud scandinave, de l’isthme de Panamá à celui de Suez. Les données climatiques et biogéographiques ont aussi joué un rôle difficilement négligeable. Les armées napoléoniennes furent en effet vaincues non par Koutouzov ou Bagration, mais plus efficacement par le « général Hiver », le plus fidèle allié des Russes durant plusieurs siècles. De même, durant la guerre des Malouines, nombre des neuf cent vingt victimes argentines, mal préparées et sous-équipées, provenant des provinces intertropicales du nord du pays, sont morts de froid et pas seulement des offensives de l’armée britannique. Quant au rôle de l’eau, il constitue depuis des siècles un élément majeur des typologies régionales et zonales esquissées ici et là, avec, pour simplifier, au plan des précipitations proprement dites, trois types de situations : les nations à climat tempéré, bénies des dieux ; celles qui souffrent de la surabondance pluviométrique, du Bangladesh aux Maldives ; et les zones désertiques ou semi-désertiques, de la Mongolie au Sahel ou à l’Arabie saoudite... Enfin, la place des grands fleuves dans l’émergence et l’épanouissement de certaines civilisations ne prête guère à contestation : imagine-t-on l’Égypte sans le Nil ou la Mésopotamie sans le Tigre et sans l’Euphrate ? (chapitre XII sur les guerres de l’eau). Les données de l’Histoire sont tout aussi fondamentales. Songeons par exemple (nous y reviendrons dans les deux chapitres qui suivent) à la multiplication des conflits intraétatiques générés en Afrique subsaharienne par les vagues de décolonisation et le caractère artificiel des frontières imposées par les anciennes métropoles ; au rôle majeur des schismes tout au long de l’histoire de l’Islam, et tout particulièrement aux tensions ancestrales entre sunnites et chiites ; aux données démographiques (chapitre X) liées au contexte religieux ; à la donne linguistique (à l’image de la place de la Francophonie – voir chapitre V – au cœur du Pacifique Sud), ou encore aux liens culturels et socioculturels... On pourrait également rappeler l’alliance des « Five Eyes » (abrégé FVEY), qui unit de façon très stratégique, et au détriment de leurs autres partenaires de l’Otan et de l’UE, allègrement espionnés, les services de renseignement de cinq pays frères anglo-saxons partageant une même langue (voir chapitres VIII et XIV), une même civilisation, et une partie d’histoire commune : Australie, Canada, Nouvelle-Zélande, Royaume-Uni et États- Unis. La Grande-Bretagne partage d’ailleurs sa souveraineté nucléaire avec les États-Unis et a longtemps espionné pour le compte de la National Security Agency (NSA) ses propres partenaires de l’Union européenne avant de finir par quitter cette dernière... De Gaulle n’avait ainsi pas entièrement tort de dire qu’elle était un « cheval de Troie des États-Unis en Europe ». C’est ainsi qu’en toute logique géopolitique, Winston Churchill déclarait à la veille du débarquement de Normandie : « Chaque fois qu’il nous faudra choisir entre l’Europe et le grand large, nous serons toujours pour le grand large. » Et le célèbre dirigeant anglais précisa, lorsqu’il proposa la création des « États-Unis d’Europe », que son pays fût « with it, not in it »... Témoin aussi le poids de certaines Constitutions : un exemple édifiant est illustré par le triple refus (à portée internationale), sous les présidences démocrates de Woodrow Wilson, de Jimmy Carter et de Bill Clinton, décidé par un Congrès à majorité républicaine, de ratifier un traité international signé par le Président : non-ratification du traité Salt II en 1977 (voir chapitre VII), sous Carter ; non-ratification du traité d’interdiction complète des essais nucléaires (CTBT 16 , voir chapitre III) en 1999, sous Clinton et, plus spectaculaire encore, non-reconnaissance, par le Congrès, de la Charte en quatorze points créant notamment, le 19 mars 1920, la Société des nations, une charte conçue et proposée par Woodrow Wilson en personne. À preuve encore du poids de l’Histoire, l’interventionnisme des superpuissances durant la période bipolaire, dans le cadre de la logique des Blocs, ou, depuis 1990, celui des États-Unis, volontiers gendarmes du monde, systématiquement lié à un credo inébranlable : les États-Unis sont bénis de Dieu (God bless America) et bénéficient des effets de la « Destinée manifeste » et du « efficiency first for us ». Il est donc de leur devoir de contribuer à implanter les vertus de la démocratie américaine partout dans le monde, même si les nations et les peuples concernés ne sont pas demandeurs. Variables contemporaines Toutefois, les tendances lourdes peuvent être, ici ou là, perturbées par l’impact de variables contemporaines : coups d’État, restauration de la démocratie, changements d’alliances, dévaluation monétaire, crises économiques ou sanitaires (Covid-19, voir chapitres X et XIII), découvertes plus ou moins inopinées de ressources minérales ou énergétiques... Ce constat rend compte également qu’au-delà de la définition même de la géopolitique, l’approche de cette dernière est, depuis des générations, partagée entre deux sensibilités : considérer effectivement que le poids des tendances lourdes est primordial, s’inscrivant ici dans l’héritage d’illustres ancêtres (Jules César qui, à la veille de la conquête de la Gaule, fait étudier minutieusement par ses conseillers les spécificités géographiques du territoire à conquérir et les mœurs et coutumes de ses futurs adversaires ; Richelieu, père des « frontières naturelles », Frédéric II ou Bismarck...), ou au contraire privilégier les variables contemporaines, à l’image de Tamerlan, de Napoléon Bonaparte, du Vietnamien Giap ou des théoriciens comme John Frederick Charles Fuller et Pierre Marie Gallois, lointains disciples du plus génial des géostratèges : Alexandre le Grand. Notre analyse géopolitique associe donc ces deux approches, dans le cadre d’une vision holistique et pragmatique des relations internationales et de l’étude des rivalités de pouvoirs sur des territoires disputés. Ces disciplines, qui se doivent d’être menées de façon dépassionnée et désidéologisée, sont de ce fait aux antipodes du manichéisme idéologique et donc de tout politiquement correct : géopolitologues et stratèges postulent en effet que les États-nations – acteurs géopolitiques majeurs – ont et continueront toujours d’avoir des intérêts froids et des alliés comme des ennemis ; que seuls ceux qui renoncent à leurs prérogatives régaliennes seront désouverainisés par la mondialisation ou le supranationalisme ; et enfin qu’ils sont condamnés à conduire des politiques de civilisation et à se préparer à des menaces – internes ou externes –, à la guerre économique ou à la guerre tout court, s’ils ne veulent pas disparaître. Car l’humanité est hélas encore très loin d’avoir atteint le stade de la sagesse, de la paix universelle ou de la « conscience cosmique »... 1. Oswald Spengler, Le Déclin de l’Occident, Paris, Gallimard, 1948. 2. Voir Alain Minc, La Mondialisation heureuse, Paris, Pocket, 2019 ; et Francis Fukuyama, La Fin de l’histoire et le dernier homme, Paris, Flammarion, 2009. 3. John Agnew, Geopolitics, Re-Visioning World Politics, Londres/New York, Routledge, 2003, p. 127. 4. Robert Kaplan, La revanche de la géographie, L’Artilleur, 2014. 5. L’accord nord-américain renégocié par Donald Trump en 2019 qui remplace depuis juillet 2020 l’Alena est l’Accord Canada-États-Unis- Mexique (ACEUM). 6. Cette organisation réunit l’Arménie, la Biélorussie, le Kazakhstan et le Kirghizistan. 7. Alexandre Del Valle, « La mondialisation en question et le destin de l’Occident », Géoéconomie, n o 72, septembre 2014, p. 29-48. 8. Marshall McLuhan, The Gutenberg Galaxy: The Making of Typographic Man, Toronto, University of Toronto Press, 1962. 9. Zbigniew Brzezinski, Le Grand Échiquier. L’Amérique et le reste du monde, Paris, Bayard, 1997. 10. Michel Geoffroy, La Nouvelle Guerre des mondes, Via Romana, Paris, 2020. 11. Friedrich Ratzel, Anthropogeographie. Die geographische Verbreitung des Menschen, Stuttgart, J. Engelhorn, 1882-1891. Pour Jacques Soppelsa, la géopolitique « analyse les principaux facteurs dynamiques rendant compte de ladite organisation, pour aboutir à la synthèse d’une situation politique existante et de ses potentialités ». 12. Pierre Marie Gallois, Géopolitique. Les voies de la puissance, Paris, Plon, 1990. 13. Yves Lacoste, Géopolitique. La longue histoire d’aujourd’hui, Paris, Larousse, 2006. 14. Alexandre Del Valle, Le Complexe occidental, Paris, Toucan, 2014. 15. Comme l’avait démontré l’illustre amiral russo-soviétique Gorchkov, devenu le nom du porte-avions éponyme. 16. Le Traité international « Comprehensive Test Ban Treaty » (CTBT, « Traité d’interdiction complète des essais nucléaires », TICEN) engage chaque État à ne pas réaliser d’explosions expérimentales d’armes nucléaires. Ouvert à la signature le 24 septembre 1996, il n’est jamais entré en vigueur. En 2020, 36 États sur 44 ont ratifié le texte. PARTIE I LES TENDANCES LOURDES CHAPITRE II La période contemporaine : ordre ou désordre ? « Un bon politicien est celui qui est capable de prédire l’avenir et qui, par la suite, est également capable d’expliquer pourquoi les choses ne se sont pas passées comme il l’avait prédit. » Winston Churchill Avant d’analyser en détail les différents aspects de la mondialisation dangereuse, il est important de revenir en préalable sur les différentes interprétations de ce qu’allait devenir, selon les plus grands auteurs anglo-saxons, le nouvel ordre international postguerre froide. Ceux-ci ont émis des hypothèses a priori contradictoires quant à la configuration du « nouvel ordre mondial », annoncé par George H. Bush en 1990. La relecture de ces grandes écoles de pensée s’interrogeant sur l’avenir du monde postbipolaire peut nous inciter, rétrospectivement, à critiquer ou valider leurs analyses à vocation plus ou moins prédictive, d’autant qu’elles ont toutes abordé d’une façon ou d’une autre la question de la mondialisation et du devenir de l’Empire américano-occidental, aujourd’hui contesté dans ses fondements mêmes par les outsiders. Cinq courants peuvent être distingués en la matière : l’école « unipolariste décliniste », autour des travaux de Paul Kennedy ; le courant « unipolariste optimiste » de Francis Fukuyama ou Joseph Nye ; l’école de l’empire face à ses ennemis, de Zbigniew Brzezinski et Graham Allison ; le paradigme civilisationnel de Samuel Huntington ; la critique de la mondialisation anglo-saxonne productrice de réactions identitaires (Djihad versus McWorld) par Benjamin Barber. 1) Le « déclinisme » de Paul Kennedy. La vision de cet auteur britannique, auteur d’un essai majeur sur le déclin de l’Empire américain 1 , est relativement simple : l’univers bipolaire a disparu, relayé par un monde unipolaire dominé provisoirement par les États-Unis condamnés, à plus ou moins brève échéance, à un inexorable déclin. Son argument central est que : « Tout Empire périra », selon la célèbre expression de Jean Baptiste Duroselle (1981). Trente ans plus tard, force est de constater que son verdict pessimiste a été singulièrement contredit par les faits : les États-Unis, au cours de cette période, n’ont nullement renoncé à leur statut d’hyperpuissance. Il n’est certes pas question de minimiser aujourd’hui la sévère crise financière et boursière qui a secoué l’économie américaine en 2007 ; ni de nier les conséquences dramatiques des initiatives de l’administration Bush Junior en Irak. Il est aujourd’hui encore trop tôt pour pouvoir émettre un jugement objectif sur les prises de position d’un Donald Trump entre 2016 et 2020, d’autant que, en comparaison avec ses prédécesseurs, Trump aura été plutôt un non- interventionniste et n’a pas commis les graves erreurs de politique étrangère de Bill Clinton, George Bush père et fils et même Barack Obama (guerres d’ex-Yougoslavie, Irak 1 et 2, Libye, Afghanistan). Beaucoup d’experts brodent sans état d’âme sur le déclin de l’Empire américain, que la nouvelle superpuissance chinoise cherche à déclasser. Ils ont oublié la rigoureuse mise en application du programme de « Missile Defense » (bouclier antimissile susceptible d’assurer la protection du territoire américain et des alliés), sur laquelle nous reviendrons, et proclament un peu trop hâtivement la fin de l’hyperpuissance américaine avant même qu’elle n’ait été vaincue... En réalité, le déclin semble bien plus frapper l’Europe que les États-Unis. Les États-Unis restent en effet la première et la seule puissance capable d’intervenir dans tous les recoins de la planète, grâce à ses 745 bases militaires dans 149 pays, ses 7 flottes, son budget de défense annuel de 720 milliards de dollars, autant que le budget total de tous les autres pays réunis (et 4,2 fois plus que celui de la Chine – 178 milliards USD). Sa domination satellitaire et technologique, son soft power culturel et sociétal universel, l’impérialisme de sa monnaie, l’Alliance atlantique, plus puissant système de défense mondial, sa maîtrise des institutions internationales (certes en décroissance, mais encore importante), et sa pratique des juridictions coercitives extraterritoriales, demeurent des instruments hégémoniques redoutables. Quant aux capacités de l’économie américaine à rebondir après les crises, toute l’histoire des États-Unis fourmille d’exemples révélateurs. Bref, en dépit d’inévitables difficultés conjoncturelles, les États-Unis revendiquent plus que jamais le statut inédit d’hyperpuissance, via la concrétisation progressive d’une véritable géopolitique orbitale. Est-ce à dire qu’ils ont toujours vocation à être les gendarmes du monde et qu’ils réussiront à stopper l’avancée fulgurante de l’outsider chinois ? Seul l’avenir le dira. 2) L’unipolarisme « euphorique » de Fukuyama, et des néoconservateurs. Cette option a été, elle aussi, balayée par les faits. Pour Francis Fukuyama 2 , le monde postguerre froide devenu unipolaire, dominé par une Amérique exemplaire et caractérisé par le triomphe du libéralisme capitaliste et de la démocratie, serait la « fin de l’histoire politique mondiale », le modèle indépassable pour les Nations. Rappelant que les États-Unis demeurent les plus puissants dans tous les domaines, tangibles (ressources de base, secteur militaire, énergie, sciences et technologie) comme intangibles (du patriotisme à la « culture universelle »), Fukuyama estime que « l’Occident a gagné la guerre froide et, à l’échelle du monde, les conflits entre les nations sont terminés (sic) ; l’idéologie communiste a échoué et le libéralisme deviendra l’idéologie universelle 3 ». Bénie de Dieu, la nation américaine a le devoir d’implanter ses vertus démocratiques partout dans le monde. Comme le rappelait Warren Christopher, ancien Secrétaire d’État de Bill Clinton, « la fin de la guerre froide nous a donné une possibilité sans précédent de façonner un monde plus sûr, dans lequel les intérêts et les idéaux américains peuvent s’épanouir 4 ». Mais l’option de Fukuyama, singulièrement optimiste, s’est heurtée à la réalité. Les faits sont têtus, disait Lénine. C’est aussi vrai en géopolitique. Elle a été contredite en effet par une série d’événements convergents, durant la dernière décennie. D’abord, Washington a manifestement sous-estimé l’évolution de la sécurité collective. Le maintien de la posture américaine triomphaliste post-guerre froide a entraîné de graves dysfonctionnements dans plusieurs points chauds du globe, comme la Corne de l’Afrique ou, a fortiori, le Moyen-Orient et l’Asie méridionale. Les États-Unis ont aussi pris conscience tardivement que la revendication de leur leadership devait s’accompagner d’une diplomatie cohérente, étayée par la concrétisation de promesses ou de gestes significatifs : Barack Obama ne promettait-il pas dès le début de son premier mandat la fermeture définitive de la prison de Guantanamo ? Dans un autre registre, Daesh n’aurait pas pu terrifier le monde arabe, s’emparer d’une partie de l’Irak et de la Syrie en 2014 si, en 2009, Barack Obama n’avait pas décidé de retirer d’un coup les troupes américaines sans « service après-vente ». On est ainsi passé de l’excès de l’intervention militaire américaine en Irak stupidement menée par les « néocons » de l’administration Bush Jr, en 2003, qui ont instauré un chaos en détruisant totalement l’État baathiste irakien, à un désengagement brutal qui a créé un vide et poussé les tribus sunnites massacrées par les chiites revanchards dans les bras des djihadistes à peine relâchés des prisons américaines d’Irak et des geôles syriennes à la faveur des révolutions arabes... Dans un tout autre domaine, prétendre au premier rang en matière de culture et d’éducation... tout en quittant, en réintégrant, puis en quittant de nouveau l’Unesco, était pour le moins contre-intuitif. Enfin, et surtout, les États-Unis n’ont pu, jusqu’à une date récente, contribuer efficacement à l’éradication du terrorisme islamiste international. Au contraire, ils ont même longtemps directement contribué à son expansion, via leur stratégie pro-islamiste en Afghanistan sous la guerre froide contre l’armée soviétique puis dans les Balkans en 1992-1999, et indirectement, par leurs folles aventures militaires en Irak, en Afghanistan ou en Libye. La mort de centaines de milliers d’innocents (« dommages collatéraux » des bombardements aériens massifs) a été de ce point de vue véritable semence de djihadistes selon la formule du célèbre général américain David Petraeus : « deux terroristes tués avec des dommages collatéraux humains en font naître quatre »... On peut également mentionner que Washington a négligé le nouveau rôle croissant et de plus en plus incontrôlable des organisations supraétatiques, des puissances multinationales et digitales, comme des nouveaux acteurs régionaux du monde multipolaire qui poursuivent leurs propres intérêts. Plus étonnant encore, l’échec de l’Accord de libre-échange nord-américain (Alena 5 ), pourtant contrôlé par les États-Unis... Quant à la gestion du contrôle des armements (voir chapitre VIII), le moins que l’on puisse écrire, c’est que depuis le 12 octobre 1999 et le refus du Congrès de ratifier le CTBT (traité d’interdiction complète des essais nucléaires), puis de poursuivre Start III, le « gendarme du monde » a peu contribué à son évolution et a plutôt œuvré objectivement à une néoguerre froide dangereuse avec la Russie jetée de ce fait dans les bras du rival chinois... Enfin, il convient de rendre justice au fait que Fukuyama est revenu en partie, par la suite, sur son idéalisme triomphal propre à l’école néoconservatrice, notamment dans son ouvrage Trust: Social Virtues and Creation of Prosperity 6 , reconnaissant alors que la culture, donc l’identité et l’élément géocivilisationnel, ne peut pas être clairement séparée de la géoéconomie, et que cela implique de relativiser le caractère universel des valeurs portées par l’Occident. 3) « L’Empire américain face à ses ennemis », de Zbigniew Brzezinski et Graham Allison. En 1997, dans Le Grand Échiquier, le célèbre politologue et stratège américain Zbigniew Brzezinski expliquait que l’Eurasie, vaste ensemble allant de l’Europe de l’Ouest à la Chine via l’Asie centrale, constituait la scène centrale de la politique mondiale et qu’elle était l’enjeu principal pour l’Amérique. Selon lui, la Russie, puissance majeure du heartland (voir carte n o 1), devait être endiguée sur son périmètre et ses flancs afin qu’elle ne redevienne jamais une grande puissance eurasienne. Quant à l’hyperpuissance américaine, devenue le cœur de l’empire occidental après la victoire contre l’URSS, elle devait impérativement prévenir l’émergence d’une puissance eurasienne antagoniste (la Russie, puis plus tard la Chine), donc conjurer toute alliance « antihégémonique » russo-européenne. Brzezinski suggère ainsi d’« utiliser tout moyen pour prévenir l’émergence d’une coalition hostile [en Eurasie] qui pourrait défier la primauté de l’Amérique » ou la « possibilité d’un pays de se substituer aux États-Unis en tant qu’arbitre en Eurasie ». Il affirme qu’il faut soutenir les forces et États jadis occupés par l’Union soviétique ou ses alliés en visant particulièrement la Pologne, les pays baltes, la Roumanie, et surtout l’Ukraine. Dans sa vision, cette dernière est un verrou destiné à « prévenir l’expansion russe dans son étranger proche 7 », dernier rempart face à l’avancée de la Russie vers le sud, d’où sa volonté de financer les forces antirusses de l’ouest de l’Ukraine afin de faire perdre à Moscou le contrôle de ce pays charnière entre la Russie, l’Europe et la Méditerranée (via la Crimée et la mer Noire et les détroits turcs) (voir chapitres III et IV et carte n o 14). L’encouragement occidental à la révolution orange de 2004 et à l’Euromaïdan de 2013-2014 était annoncé noir sur blanc dans Le Grand Échiquier, avec comme conséquences prévisibles la réaction convulsive de Moscou et le chaos régional (guerre civile en Ukraine, voir carte n o 14). Sa préconisation du « double élargissement » (avancée le plus possible vers l’est de l’Otan et de l’UE) a en fait débouché sur une nouvelle guerre froide entre l’Occident atlantiste et la Russie postsoviétique. En fait, la « doctrine Brzezinski » poursuivait celle de John Foster Dulles, concepteur de la doctrine du roll back (refoulement) contre la Russie/URSS sous la guerre froide, lequel continua lui-même la vision du stratège anglais Halford John Mackinder, qui appelait à endiguer le heartland russe et à encercler l’Eurasie avant même l’existence de la menace soviéto-communiste 8 (1904, voir carte n o 1). Ceci dit, Brzezinski a été moins primairement impérialiste qu’on le croit : dans les années 2000, à la fin de sa vie, il a critiqué l’interventionnisme des néoconservateurs et leurs guerres mal menées en Irak et Afghanistan qui ont contribué à faire perdre aux États-Unis leur pouvoir de séduction. Plus surprenant, celui qui apparut longtemps comme un russophobe acharné a fini par regretter lucidement à la fin de sa vie, comme Georges Kennan peu avant lui, le fait que l’échec de l’intégration de la Russie dans l’orbite occidentale a jeté la Russie de Vladimir Poutine dans les bras du vrai nouvel ennemi de l’Empire américain : la Chine... Passons au second théoricien de l’Empire américano-occidental face à ses ennemis : Graham Allison, professeur à Harvard, comme Huntington et Fukuyama, a théorisé l’affrontement apparemment inéluctable entre l’Amérique et l’ennemi chinois depuis la chute de l’URSS. Dans son ouvrage Destined for War 9 , l’auteur s’appuie sur la théorie du piège de Thucydide 10 selon laquelle une puissance dominante, comme les États-Unis, mais en déclin, tendrait à faire la guerre pour empêcher qu’une puissance rivale, comme la Chine, encore inférieure mais en pleine expansion, ne finisse par la remplacer. Le piège résiderait dans le fait que c’est la puissance dominante qui déclenche la guerre qui est vaincue par l’outsider... Pour Allison, la poursuite et l’intensification constatées des rivalités entre les deux superpuissances sur presque tous les fronts (stratégique, politique, technologique, idéologique, énergétique et économique) rendent le choc militaire inévitable... Sauf si l’Oncle Sam et l’oncle Xi s’entendent dans une sorte de duopole/condominium. L’auteur rappelle que, de l’Antiquité à nos jours, le « piège de Thucydide » s’est vérifié à seize reprises et a débouché douze fois sur une guerre que l’empire sortant a perdue face à l’outsider... Finalement, quelle que soit l’issue de la guerre qui vient entre les deux empires, Graham Allison dépeint un monde divisé, comme sous la guerre froide, mais cette fois-ci dans le cadre d’une lutte entre deux capitalismes concurrents, le capitalisme d’État maoïsto- confucéen, d’une part, et le capitalisme occidentalo-libéral, de l’autre. Certes, on peut espérer que la dissuasion, pas seulement nucléaire, mais économique et financière (interdépendance), donc la raison et les intérêts mutuels, empêchera ce scénario pessimiste du conflit militaire direct et le limitera à un conflit/bras de fer économique, comme c’est le cas actuellement. Le pire n’est jamais certain, et lorsqu’il advient, ce n’est pas toujours là où on l’avait envisagé... 4) Le paradigme civilisationnel de Samuel Huntington. En 1993, ce professeur de Harvard publie un article, puis, à partir de ce dernier, un ouvrage, le Clash of Civilizations and the Remaking of World Order (traduit en français en 1997) qui va devenir très vite une référence incontournable... et la cible d’une multitude de critiques. Après avoir à son tour rappelé la disparition du monde bipolaire issu des accords de Yalta, Huntington développe une idée majeure : la transition des relations entre États-nations à celles impliquant des « aires culturelles ». Il constate que les affrontements idéologiques de la guerre froide (communisme soviétique versus monde capitaliste) ont laissé la place au paradigme civilisationnel : « les différences entre les civilisations ne sont pas seulement réelles ; elles sont fondamentales, écrit-il. Les peuples des différentes civilisations ont des conceptions différentes des relations entre Dieu et les hommes, les individus et le groupe, le citoyen et l’État [...]. Ces antagonismes, séculaires, ne disparaîtront pas de sitôt. Ils sont bien plus fondamentaux que les différences relatives à l’idéologie politique ou aux régimes politiques. [...]. À travers les siècles, les différences entre les civilisations ont engendré les conflits les plus longs et les plus violents 11 ». Huntington conçoit le paradigme du choc des civilisations comme une nouvelle rivalité globale entre, d’une part, les démocraties occidentales et le reste du monde, en particulier le monde sino-confucéen et le monde musulman, les deux aires culturelles qui contestent le plus l’universalisme occidental, et, de l’autre, entre les aires culturelles qui s’affrontent le long des « lignes de fractures civilisationnelles » : Chine confucéenne vs Inde ; Inde majoritairement hindoue vs Pakistan musulman ; catholiques occidentaux vs slavo-russes-orthodoxes « postbyzantins » ; musulmans bosniaques vs Croates catholiques et Serbes orthodoxes dans les Balkans (voir carte n o 5). Contrairement à ce qu’ont dit ses détracteurs qui ne l’ont pas lu, il ne nie pas, bien au contraire, la complexité et donc les fractures à l’intérieur de mêmes zones culturelles : Alaouites laïques et autres minorités vs sunnites islamistes en Syrie, chiites vs chrétiens et sunnites au Liban, chiites vs sunnites au Yémen ou en Irak, « tiraillements » internes en Turquie. Prémonitoire, mais souvent caricaturé, Huntington annonce l’affrontement entre kémalistes et islamistes en Turquie, l’éclatement de l’Ukraine entre prorusses et antirusses, il prédit la montée des identités séparatistes en Catalogne, Écosse, Kurdistan, etc., ainsi que la montée des populismes anti-immigration en Europe en réaction à l’immigration de masse. Loin d’être un impérialiste unipolariste, il constate la remise en question de la suprématie occidentale, qu’il qualifie d’arrogante, en préconisant, pour faire baisser cette inimitié, l’acceptation d’un monde multipolaire dans lequel l’hyperpuissance américaine s’accommoderait de l’apparition des pôles de valeurs, d’identité et de puissances autonomes qui ne partagent pas l’universalisme occidental (voir chapitre V). On est très loin de l’occidentalo-centrisme qu’on lui a prêté. Certes, Samuel Huntington n’étant pas un stratège, sa théorie générale est critiquable : il semble considérer les concepts de superpuissance et d’hyperpuissance comme des synonymes, au risque de tomber dans une simplification. Rappelons quand même que, pour qu’un leadership planétaire perdure, il doit s’appuyer sur la maîtrise des quatre éléments de la puissance : la terre, la domination territoriale d’un espace, gage de la puissance moyenne ; l’eau (la domination des mers), passeport pour revendiquer le statut de grande puissance ; le feu (le feu nucléaire en l’occurrence) gage de la superpuissance ; l’air (l’espace) qui, au moins partiellement maîtrisé, permet d’acquérir le statut d’hyperpuissance. Concernant les « aires de civilisation », son postulat selon lequel le XXI e siècle sera « spirituel ou ne sera pas », comme l’avait évoqué naguère André Malraux, et se caractérisera par une compétition globale entre civilisations, avec à leur tête leurs leaders respectifs, est à nuancer, car les États souverains ont leur logique propre, parfois contra- civilisationnelle. Sa distinction de sept aires culturelles est également discutable 12 . Huntington est toutefois assez lucide lorsqu’il redoute l’expansionnisme antioccidental de deux aires culturelles montantes, la Chine et le monde musulman : « Ces deux civilisations pourraient en outre former un axe islamo-confucianiste susceptible de constituer une véritable menace pour le monde occidental. » Cette énumération a suscité de vives critiques, en partie justifiées 13 , mais que l’alliance renforcée de la Chine et du Pakistan, à la fois contre l’ennemi commun indien- hindouiste et contre l’Occident, a tout de même confirmée. Ses classifications sont parfois discutables : une civilisation japonaise dérivée de la chinoise ? Un monde latino-américain judéo-chrétien mais distinct de l’aire occidentale ? Mais sa description d’une Afrique tiraillée entre une civilisation propre, « l’Afrique noire » non musulmane, et l’ère islamique, ou son affirmation que l’Amérique latine, l’Afrique noire et le monde musulman sont privés de leaders ou « États phares », à la différence des civilisations occidentales (États-Unis), orthodoxes-slavo- byzantine (Russie), japonaise (Japon), sino-confucéenne (Chine) ou hindouiste-indienne (Inde), ne sont pas inintéressantes. Contrairement à ce qu’ont dit ses détracteurs, Huntington n’a pas nié les fractures internes entre les civilisations, ni présenté l’islam comme une civilisation homogène, puisqu’il souligne son extrême division due aux rivalités internes pour son leadership. Et son affirmation que le monde musulman et l’islam mondial officiel connaîtraient depuis les années 1980 un mouvement de radicalisation intégriste tourné contre l’Occident et les autres civilisations rivales (Inde-hindouiste, Afrique noire animiste-chrétienne, Asie du Sud-Est bouddhiste) est loin, hélas, d’avoir été démentie par les faits. Djihad versus McWorld ? 5) La critique de la mondialisation anglosaxonne McWorld de Benjamin Barber. Une autre clé de lecture, fort originale, est celle du politologue-sociologue Benjamin Barber, qui complète les autres et mérite un développement à part. Dans son ouvrage, Djihad versus McWorld, publié en 1996, l’auteur dépeint de façon prémonitoire la lutte très actuelle entre, d’une part, l’Empire anglophone de troisième type, qu’il appelle McWorld, excroissance hybride des États-Unis échappant à son créateur dans le cadre d’une mondialisation consumériste et informationnelle, et, de l’autre, « djihad ». Terme qu’il a regretté par la suite car il voulait décrire par là l’ensemble des forces identitaires radicales et « paroissiales » (pas seulement l’islamisme) qui défendent les valeurs traditionnelles, le nationalisme, la religion, et autres appartenances tribales, face à l’empire déstructurant et acculturant de McWorld associé à l’Occident libertaire. Pour Barber, la mondialisation non réglementée et ses multinationales américaines couplées à la technologie de l’information formeraient une sorte d’empire antinational planétaire alimenté par une déconstruction permanente des valeurs, des identités et des souverainetés. McWorld conduirait à l’anomie et à l’anarchie générale qui ne peuvent qu’appeler des réactions identitaires violentes. Celles-ci pourraient même survenir à l’intérieur de l’Occident, de ce fait divisé entre « mondialistes » et « souverainistes », en l’absence de réponse à la demande d’identité et de souveraineté nationale des peuples. « La vérité paradoxale est que les tendances tant de Djihad que de McWorld se développent en même temps et que l’on peut les voir toutes deux à l’œuvre au même endroit et au même moment [...]. Chacun des deux produit son contraire et a besoin de lui 14 . » Visionnaire, Barber annonçait ainsi la polarisation actuelle américaine entre le camp pro-Trump, anti- interventionniste, nationaliste, isolationniste, conservateur et antimondialiste, et le camp démocrate Biden-Obama, multilatéraliste, universaliste, mondialiste, assimilé à McWorld, aux délocalisations massives et aux Gafam. Du point de vue géopolitique, cet antagonisme majeur, qui fracture les sociétés occidentales, se retrouve aussi dans l’opposition entre, d’une part, les puissances émergentes non occidentales, identitaires et partisanes d’un ordre international multipolaire hostiles au multilatéralisme, aux interventions et à l’hégémonie américano-occidentales et donc au démocratisme droits-de-l’hommiste qui les justifient hypocritement, et, de l’autre, l’Occident mondialisé des démocrates/néocons américains, l’Otan, des sociaux-démocrates ouest-européens, qui voudraient étendre à l’humanité tout entière leurs valeurs woke consuméristes. Barber fut également précurseur, car à l’époque de la rédaction de son ouvrage, Internet n’en était qu’à ses débuts et les réseaux sociaux n’existaient pas, mais il pressentait la puissance de plus en plus défiante, pour les identités stato-nationales et les traditions enracinées, que sont les puissances digitales et autres multinationales déterritorialisées. La thèse de Barber met en lumière les revers de la mondialisation « pas toujours heureuse ». Il s’est probablement trompé, dans sa conclusion, en postulant que l’empire marchand anglo-saxon pourrait l’emporter. Aujourd’hui, le McWorld occidental est largement concurrencé par son rival le Big Brother chinois articulé autour de gigantesques multinationales et des « BATX » (Baidu, Alibaba, Tencent, Xiaomi, voir chapitre XII). Ces nouveaux conquérants véhiculent des valeurs opposées à celles, libérales-libertaires, du McWorld anglo-saxon, et surtout sont contrôlés par l’État. En octobre 2020, on a vu le patron d’Alibaba, Jack Ma, disparaître avant de se faire recadrer par la Cour pénale chinoise 15 ... Toutefois, la proposition barberienne de conjurer le scénario chaotique d’un « Mad Max universel » par la réhabilitation de l’État souverain confirme la nécessité que ce dernier demeure l’acteur majeur de la politique mondiale et le fait qu’il soit le cadre le plus approprié pour assurer les droits des citoyens – donc la démocratie elle-même – comme seule alternative viable face aux forces impériales et néobarbares de djihad, de Mad Max et de McWorld qui annoncent la guerre de tous contre tous. Kennedy, Fukuyama, Brzezinski, Huntington, Allison, Barber... Des visions prophétiques du monde postbipolaire, parfois – mais pas toujours – contrariées par les faits, que l’on peut appliquer selon ses préférences analytiques à une planète qui, depuis un quart de siècle, tend davantage à flirter avec le concept de désordre qu’avec celui de nouvel ordre. Un univers caractérisé par la multiplication des défis, des contentieux, des menaces et des crises. 1. Paul Kennedy, The Rise and Fall of the Great Powers, 1987. 2. Ex-néoconservateur issu de l’administration Reagan source d’inspiration pour les interventionnistes démocrates. 3. Francis Fukuyama, La Fin de l’histoire et le dernier homme, op. cit. 4. Christian Harbulot et Jean Pichot-Duclos, La France doit dire non, Paris, Plon, 1999. 5. L’Accord de libre-échange nord-américain (Alena), en anglais NAFTA (North American Free Trade Agreement), en vigueur le 1 er janvier 1994, crée une zone de libre-échange entre EU, Canada et Mexique et couvrant 480 millions d’habitants, a été complété en 2019 par l’accord Canada- États-Unis-Mexique. 6. Francis Fukuyama, La Confiance et la puissance. Vertus sociales et prospérité économique, Paris, Plon, 1997. 7. Zbigniew Brzezinski, Le Grand Échiquier, op. cit. 8. Halford John Mackinder, « Le pivot géographique de l’Histoire », The Geographical Journal, vol. 23, n o 4, avril 1904, p. 421-437. Voir aussi le précurseur de l’endiguement, Nicholas Spykman, qui préconisait de ceinturer la Russie/Heartland par une chaîne d’alliances ouest/centre européenne, turcophone, arabo-islamique et asiatique (Rimland) destinée à isoler l’Empire russe et l’empêcher d’accéder aux Mers chaudes et au Sud, objectif de l’Otan, pendant et après la guerre froide. 9. Graham Allison, Vers la guerre. L’Amérique et la Chine dans le piège de Thucydide ?, Paris, Odile Jacob, 416 p. 10. En référence à l’opposition (–431-404) entre Athènes – puissante ascendante – et Sparte – puissance ancienne – relatée par Thucydide dans La Guerre du Péloponnèse. 11. Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997, 402 p., p. 73. Voir carte n o 5. 12. Ces sept aires sont : – la civilisation occidentale, fondée sur l’héritage judéo chrétien ; – latino-américaine, dérivée de celle-ci (sic) ; – confucianiste chinoise ; – la shintoïste-japonaise, dérivée de cette dernière (sic) ; – hindouiste ; – musulmane ; – et une civilisation africaine tiraillée entre islam et non islam. 13. Alexandre Del Valle, adepte de la « géopolitique géocivilisationnelle », est ici plus hungtintonien que Jacques Soppelsa. 14. Benjamin R. Barber, Djihad versus McWorld, Paris, Desclée de Brouwer, 1996, p. 24-25 15. Voir chapitre VIII. Le patron d’Alibaba, Jack Ma, 25 e fortune mondiale, a disparu en octobre 2020 après un discours sévère à l’égard de Pékin, qui a suspendu l’entrée en Bourse de la fintech Ant Group, la banque en ligne d’Alibaba. Alibaba a été accusée de « pratique anticoncurrentielle » par la Cour populaire suprême chinoise. CHAPITRE III De la multiplication des conflits « Soyons pessimistes par réalisme et optimistes par nécessité. » Benjamin Disraeli La période 1945-1990, au-delà de quelques nuances conjoncturelles, était considérée comme une ère de certitudes avec des menaces et des ennemis potentiels clairement identifiés. Hormis l’affaire de Suez – qui s’illustra par l’alliance de facto entre les États-Unis et l’URSS d’une part, la France et le Royaume-Uni, d’autre part –, la plupart des crises et des contentieux virent s’affronter indirectement les deux superpuissances dans le cadre d’un monde bipolaire. La chute du mur de Berlin, l’effondrement des démocraties populaires, la disparition de l’Union soviétique, ont fait en revanche entrer la planète dans une ère d’incertitudes 1 , caractérisée par une gamme de plus en plus nourrie de menaces, de crises, de défis multiformes. Depuis lors, le monde, encore plus durablement déstabilisé par la pandémie, navigue dans une grande tempête, sans gouvernance capable d’envisager un ordre mondial plus multilatéraliste. Dans ce contexte, et contrairement à une idée reçue très ancrée dans les consciences occidentales selon laquelle les guerres ne seraient plus possibles sur le sol des démocraties libérales, les conflits armés directs, dits « de haute intensité », redeviennent tout à fait possibles. C’est ainsi que le général Thierry Burkhard, aujourd’hui chef d’État- major de l’armée de terre française (Cemat), confirmait officiellement, le 31 juillet 2019, le double constat de l’incertitude croissante et d’un possible retour de la guerre en Occident et plus seulement entre pays non démocratiques dits « du Sud » : « dans un monde de l’incertitude et de l’instabilité, en transformation rapide [...], il faut être prêt à s’engager pour un conflit de survie [...]. Le rapport de force redevient le mode de règlement des différends entre nations. Le combat de haute intensité devient une option très probable ». Cette idée émise par un responsable militaire dont la mission est d’anticiper les menaces mais qui est tout sauf un va-t-en-guerre dément de plein fouet le postulat philosophique majeur de l’Union européenne, qui a confié sa défense aux États-Unis, via l’Otan et a renoncé de ce fait à se doter d’une armée et d’une stratégie propres. Elle dément la croyance qui consiste à penser que l’on peut conjurer guerres et chocs de civilisation en prônant la paix, la tolérance, en renonçant à son identité, à tout nationalisme, et en affichant un universalisme droits-de-l’hommiste béat. La radicalisation de la Turquie d’Erdoğan contre les Européens depuis que ce pays a été déclaré candidat à l’intégration dans l’UE – sans d’ailleurs en remplir les critères – est l’une des manifestations les plus flagrantes de ce phénomène faussement paradoxal. On peut bien sûr également évoquer la guerre économique permanente que nous livrent tant nos « amis » protecteurs nord-américains que la Chine, les desseins de conquête prosélyte de puissances islamiques qui voient dans le vieux continent européen postchrétien un ventre mou à conquérir par la démographie et en y remplissant le vide religieux, ou encore les multiples tensions entre puissances nationalistes et autres conflits identitaires partout dans le monde. Éric Denécé, directeur du Centre français de recherche sur le renseignement (CF2R), évoque ainsi des « risques d’affrontement avec des États non nucléaires disposant de moyens militaires modernes. C’est en particulier le cas de la Turquie, à laquelle nous pourrions être confrontés en Libye, en Grèce ou en Méditerranée [...] beaucoup de pays du monde ont modernisé leur arsenal militaire alors que les Européens ont tous cherché à profiter des “dividendes de la paix” et ont baissé la garde. [...] Des armements modernes (drones, missiles, aéronefs, moyens de guerre électronique, etc.) sont présents partout, pas seulement chez les grandes puissances militaires 2 ! » Aux risques plus que jamais d’actualité, mais désormais « classiques », que sont la prolifération nucléaire, la dissémination des armements (voir chapitre VIII), l’immigration de masse incontrôlée, l’islamisation radicale, le terrorisme et les mafias transnationales ou narcopuissances, il convient aussi d’ajouter ceux de la nouvelle donne énergétique, des aléas du contexte écologique, les enjeux de la crise sanitaire et la digitalisation de l’humanité et des cybermenaces auxquelles les États et les services de sécurité se sont souvent adaptés avec un coup de retard. Autre manifestation de la mondialisation dangereuse, c’est bien grâce à la globalisation des échanges et des technologies que les pires ennemis des démocraties, à commencer par la Chine maoïste-capitaliste, mais aussi d’autres puissances multipolaristes (Turquie, Iran, Pakistan, Corée du Nord) ont réussi à acquérir des technologies et arsenaux militaires créés par les Occidentaux mais dont ces derniers, avides de délocalisation et de libre- échangisme, n’ont plus le monopole. C’est dans ce contexte de mondialisation que les puissances occidentales et leurs entreprises stratégiques ont transmis aux outsiders multipolaires des armes et des technologies qui se retournent aujourd’hui contre elles. Dupés par leurs propres modèles libre-échangistes sans limites, les Occidentaux, surtout les Européens, sont déjà massivement dépendants de pays jadis perçus comme des zones durablement faibles où il serait toujours profitable de délocaliser, source majeure de la désindustrialisation de l’Europe – excepté l’Allemagne – et des États-Unis. Multiplication des conflits infra-étatiques internationalisés Avant la montée en puissance du néosultan turc Recep Tayyip Erdoğan et l’intensification du terrorisme islamiste depuis les années 1995-2001, les pays occidentaux pensaient que la Turquie, pays membre de l’Otan, ainsi que les puissances islamiques sunnites du Golfe, et le Pakistan, alliées sous la guerre froide, face à l’URSS, étaient des « amis durables ». Il n’en est rien. Ces pays ont connu paradoxalement un processus de réislamisation radicale et de montée de l’antioccidentalisme au moment même où, au sortir de la guerre froide, et bien qu’étant nos alliés stratégiques de longue date ou nos fournisseurs d’énergie, ils entraient de plein fouet dans la modernité technologique et la mondialisation. En réalité, les élites occidentales et leurs multinationales n’avaient pas prévu les dommages collatéraux civilisationnels de la mondialisation façon McWorld, laquelle, de par son action d’acculturation et d’occidentalisation, a suscité de violentes réactions identitaires de la part des nations désireuses de ne pas subir une « seconde colonisation », à commencer par les partisans des valeurs islamiques. Ces derniers ont perçu dans la lecture individualiste, libertaire et mondialiste de la globalisation à l’occidentale, une menace existentielle majeure. Outre le monde musulman, la quasi-totalité des États-nations souverainistes non occidentaux (Russie, Chine, Turquie, Iran, pays d’Asie du Sud, Inde) ont riposté aux effets déracinant et déconstructivistes de la globalisation anglosaxonne en la désoccidentalisant, en la désidéologisant et en l’utilisant au contraire comme un levier d’expansion et de projection de puissance. Décidés à ne pas céder sans identité et souveraineté, ces acteurs ont canalisé la modernité en fonction de leurs intérêts géocivilisationnels. Bref, l’interconnexion entre aires géocivilisationnelles et l’internationalisation des échanges ont paradoxalement internationalisé et donc étendu les sources de conflit et de casus belli... D’une manière générale, on note que depuis la fin de la guerre froide, les guerres infra-étatiques internationalisées sont les plus fréquentes et les plus meurtrières, car elles permettent aux grandes puissances de s’affronter par procuration (dissuasion nucléaire et interdépendance économique entre le tandem Chine-Russie, d’une part, et l’Occident, de l’autre), à travers la participation à des conflits identitaires et des guerres civiles 3 . Par ailleurs, depuis les années 1990-2000, la politique occidentale de soutien militaire à des forces d’opposition (révolutions de velours et printemps arabes) ou séparatistes (Kosovo) pour déstabiliser des régimes considérés antidémocratiques, au nom de valeurs occidentales universelles hégémoniques ou de mobiles issus de la guerre froide, a contribué à augmenter considérablement le nombre de conflits meurtriers dans le monde, notamment dans les Balkans, au Moyen-Orient et en Afrique. Le plus souvent, les politiques de « pandémocratisme » et de regime change voulues par l’Occident (surtout anglo-américain), loin d’avoir remplacé des régimes autoritaires par des démocraties libérales, ont plutôt abouti à créer des zones de non-droit, des États criminels (Kosovo) ou faillis (Irak, Libye) et des zones de guerre civile endémique comme l’Afghanistan, le Yémen, la Syrie. Poussée par une mondialisation acharnée, ladite multiplication des conflits ouverts a pris une telle ampleur au cours de la seconde moitié du XX e siècle qu’elle a abouti, via la polémologie 4 , à de multiples tentatives de typologies. L’une de ces tentatives intéressantes est, au-delà de quelques simplifications, celle proposée par le fondateur de la polémologie française, Gaston Bouthoul, et de son disciple René Carrère, auteurs du Défi de la guerre 5 . Les deux auteurs, à travers cet ouvrage, analysaient trois grands types de conflits : les guerres interétatiques, les guerres coloniales et les guerres intraétatiques postcoloniales. D’évidence, les conflits coloniaux décrits par Bouthoul sont quasi inexistants aujourd’hui, puisqu’ils ont été fort logiquement concentrés sur la période 1955-1975, l’époque d’accession à l’indépendance de pays d’Afrique, d’Asie méridionale ou de la péninsule indochinoise. Ce type de conflits ouverts s’est progressivement effacé au profit des guerres intraétatiques, que Bouthoul a qualifiées de « conflits de troisième type ». Le plus significatif réside donc dans le déclin quantitatif des conflits classiques par rapport aux autres, notamment identitaires et ethnoreligieux. Ce déclin résulte directement des caractères fondamentaux du système bipolaire engendré par l’après-Yalta et a été fortement conforté par les effets du nucléaire (voir « Le pouvoir égalisateur de l’atome », dixit Pierre Marie Gallois). À cette époque, les deux superpuissances ont très vite estimé que tout conflit direct, y compris à l’échelle de leur zone d’influence respective, serait désormais inconcevable, sous peine de rompre le fragile équilibre des forces, au- delà de la sévère crise de Cuba, en 1962, qui faillit plonger le monde dans l’Apocalypse. Dans ce contexte, les guerres interétatiques ont « privilégié », si l’on peut dire, les nations défavorisées du tiers-monde, d’où la croyance en vogue dans l’Europe pacifiste, déplorée plus haut, que l’homme blanc-occidental riche et ses démocraties libérales seraient protégés ad vitaem eternam par les parapluies nucléaires et ne connaîtraient plus jamais de guerre classique sur leur sol. C’était oublier la montée des guerres asymétriques, identitaires, religieuses, civiles, terroristes, contre lesquelles l’arme nucléaire d’un État ne peut rien puisqu’elles se passent sur son propre sol. Échec du multilatéralisme ? En fin de compte, la multiplication des conflits depuis la fin de la guerre froide peut s’expliquer non seulement par le fait que la sanctuarisation nucléaire ne suffit pas et ne concerne que peu de nations, mais aussi par l’échec patent du multilatéralisme, qui n’a réglé pratiquement aucun des conflits, excepté les exemples discutables des Balkans : échecs au Rwanda, à Chypre, en Israël-Palestine, en République démocratique du Congo, en République centrafricaine, en Syrie, en Libye, en Irak, en Corée du Nord, au Yémen, en Somalie, et aussi sur le dossier nucléaire iranien, les exemples sont trop nombreux pour être tous énumérés. La création de l’ONU, suivie de la promotion officielle durant ces dernières décennies, de la paix internationale, n’a en effet pas réduit les violences, bien que les antagonismes entre grandes puissances aient été souvent évités et qu’ils se déroulent souvent dans le cadre de guerres civiles ou conflits asymétriques. La croyance en la fonction durablement pacifique de la sanctuarisation nucléaire a semblé décrire une réalité depuis le début de l’ère nucléaire militaire, puisque seuls quatre conflits ouverts, relativement limités, ont opposé directement des États échappant au dramatique contexte du sous-développement : la guerre des Malouines, entre l’Argentine et le Royaume-Uni, le conflit du Cenepa 6 (la « Cordillera del Condor »), entre Pérou et Équateur, le conflit du Haut-Karabagh, entre Arménie et Azerbaïdjan et le conflit non officiel certes, mais bien direct, qui oppose la Russie à l’Ukraine. Si les conflits des Malouines et du Cenepa sont largement oubliés du grand public et si celui d’Ukraine n’a cessé de s’intensifier depuis 2004 (voir infra), celui du Haut-Karabagh s’est réveillé – tel un volcan – le 27 septembre 2020, après vingt années de statu quo. Il mérite que l’on s’y penche un instant, sachant qu’il se déroule sur une zone stratégique, le Caucase, disputée par deux empires renaissants, la Turquie nationale-islamiste d’Erdoğan, qui a considérablement appuyé son allié et « frère » azéri turcophone, et la Russie slavo-orthodoxe, qui veut toujours contrôler ces deux États de « l’étranger proche », ex-soviétiques. Ce conflit concerne les Européens au premier plan, car le pays qui a poussé à la guerre, la Turquie, membre de l’Otan et candidat à l’intégration dans l’UE, est lui-même au bord de la guerre avec deux pays membres de l’Union, Chypre et la Grèce, ainsi qu’avec des pays arabes qui partagent avec la Grèce, Chypre ou la France, des intérêts géoénergétiques (voir infra). Le conflit du Haut-Karabagh (voir carte n o 10) confirme l’échec du multilatéralisme, manifestation parmi tant d’autres, du fait que la mondialisation, plus dangereuse et complexe que l’on croit, n’a supprimé ni les motifs de conflits, ni les identités nationales et civilisationnelles. Le conflit du Haut-Karabagh La récente confrontation armée entre l’Azerbaïdjan et les Arméniens du Haut Karabagh (27 septembre- 10 novembre 2020) n’est que l’énième épisode d’un antagonisme géopolitique violent qui date des années 1988- 1991 : l’Arménie chrétienne ex-soviétique est non seulement enclavée mais surtout prise en tenailles entre Turcs musulmans sunnites à l’Ouest et Azéris musulmans chiites à l’Est (turcophones également), et n’a de bons rapports qu’avec les Russes et dans une moindre mesure, avec les Perses voisins, eux-mêmes concurrents des Turcs et des Russes et méfiants vis-à-vis de l’irrédentisme azéri dans le nord de l’Iran... Bienvenue dans le Caucase ! Dès la disparition de l’Union soviétique, un conflit ouvert éclata entre l’Arménie et l’Azerbaïdjan à propos du Haut- Karabagh (ou Nagornyi-Karabakh, voir carte n o 10) que les Arméniens nomment « Artsakh ». De fait, il n’est que la dramatique suite des relations singulièrement tendues, depuis des générations, entre ces deux nations qui viennent d’accéder alors à l’indépendance. Ces tensions, qui remontent au début du XVII e siècle, sont renforcées à partir de la guerre russo-persane de 1804-1813 qui voit la Transcaucasie passer sous le giron russe. Elles entraînent de douloureuses conséquences régionales, comme les déplacements forcés d’Arméniens de Turquie et d’Iran vers les horizons du Caucase. Ces relations s’illustrent, au crépuscule de l’Union soviétique, par une guerre sourde et strictement localisée. Cet événement, du côté des Arméniens de la région, appuyés par Erevan, a permis à l’époque de qualifier le conflit de « lutte de libération nationale » et non de guerre interétatique entre l’Arménie et l’Azerbaïdjan. Deux principes de légitimité s’opposent Rappelons que le Nagornyi-Karabagh, historiquement arménien depuis deux millénaires (et peuplé à 80 % d’Arméniens à la veille du conflit), avait été octroyé par Staline en 1921 à l’Azerbaïdjan, voisin dans le cadre de la politique soviétique de divide et impera, mais aussi pour gagner le soutien du pouvoir kémaliste en Turquie alors en guerre contre les alliés franco-britanniques. Entre 1988 et 1990, en vue de l’affaiblissement de l’URSS, comme tant d’autres républiques ex-soviétiques, les Arméniens du Haut-Karabagh ont invoqué le droit à l’autodétermination, comme l’Azerbaïdjan, vis-à-vis de l’URSS. Mais les Azéris, invoquant les accords d’Helsinki et le principe d’intangibilité des frontières existantes, ont rétorqué que le Haut-Karabagh est partie intégrante de son territoire depuis 1921 et que l’Azerbaïdjan, devenu indépendant et reconnu par l’ensemble de la communauté internationale dans ces frontières de 1921, ne pouvait accepter la sécession des Arméniens du Karabagh, et encore moins leur rattachement à l’Arménie. Du coup, la région autonome s’est autoproclamée indépendante le 2 septembre 1988 non pas vis-à-vis de l’Azerbaïdjan, mais du pouvoir central soviétique. En 1988 et 1990, des pogroms antiarméniens ont éclaté dans la ville de Sumgaït, puis à Bakou et Kirovabad, en Azerbaïdjan, faisant des centaines de victimes et provoquant d’importants mouvements de populations entre l’Arménie et l’Azerbaïdjan. En septembre 1991, l’Assemblée nationale du Haut-Karabagh réitéra sa déclaration d’indépendance, ratifiée par le référendum du 10 décembre, avec une écrasante majorité de « oui », mais elle n’a jamais été reconnue par aucun État..., pas même par les Nations unies ou d’autres organisations internationales intergouvernementales qui ne veulent pas compromettre leurs relations avec l’Azerbaïdjan riche en pétrole et bien plus prospère que la petite Arménie enclavée, et sous embargo turco-azéri... Pour rétablir leur contrôle sur le Haut-Karabagh, les autorités azerbaïdjanaises envoyèrent des troupes. Entre 1990 et 1992, une véritable catastrophe humanitaire eut lieu dans cette région à la suite du blocus imposé par l’Azerbaïdjan. Les Arméniens du Haut-Karabagh, appuyés par l’Arménie voisine, repoussèrent les Azéris venus rétablir leur souveraineté. Les affrontements inhérents à cette guerre de libération, qualifiée de « séparatiste » par Bakou, feront de nombreuses victimes. La médiation internationale de plusieurs groupes, comme l’OSCE, ayant échoué à trouver une solution au conflit qui satisfasse les intérêts des deux côtés. Au début de l’année 1993, les forces arméniennes, qui avaient l’avantage militaire, pénétrèrent en territoire azéri et occupèrent une zone qualifiée de « périmètre de sécurité » autour du Haut- Karabagh, soit 8 000 km² de terres azerbaïdjanaises. À l’issue du conflit au terrible bilan (plus de 40 000 morts, 1 million de réfugiés azéris, 400 000 Arméniens fuyant l’Azerbaïdjan occasionnant d’effroyables massacres, comme celui de Khojaly 7 ), 20 % du territoire azéri fut désormais contrôlé par les forces locales arméniennes : le Haut- Karabagh et 7 districts voisins, ceux de Fuzuli, d’Agdam, de Djebrail, de Goubadly, de Latchin, de Kelbadjar et de Zangelan. Comme Israël dans ses différentes guerres avec les pays arabes, entre 1948 et 1973, les Arméniens de la région autonome profitèrent de leur avantage militaire pour non seulement reprendre leur province arménienne en territoire du Karabagh officiellement azéri, mais également pour s’emparer des territoires du Haut-Karabagh (bordures sud) peuplés d’Azéris, dans une logique d’acquisition d’une zone tampon entre eux et leur voisin ennemi. Ce sera là, près de trente ans plus tard, la source du revanchisme des dirigeants azéris et de leurs alliés turcs, décidés à laver cet affront : durant toutes les années 1990 et 2000, puis de façon plus nette encore depuis 2010-2018 avec un appui politique et militaire turc croissant, Bakou s’est préparé à la revanche, en achetant des armes à tous les pays capables de lui en fournir : Turquie, Israël, Italie, Grande-Bretagne, Allemagne, France... et même la Russie, pourtant officiellement protectrice des Arméniens. En réalité soucieuse de vendre ses armes à tous et de maintenir un équilibre dans un Caucase et une zone Caspienne turcophone extrêmement stratégique et riche en hydrocarbures, Moscou entend rester présente en ménageant toutes les parties. Du rôle de la communauté internationale Dès le milieu de l’année 1992, la communauté internationale tente de mettre un terme à la guerre, via la Conférence sur la sécurité et la coopération en Europe (CSCE) 8 . Le 24 mars 1992, la CSCE officialise la création d’un « Groupe de contact pour le Haut-Karabagh », rapidement appelé « Groupe de Minsk 9 », qui recense onze participants, dont la France et les États-Unis, rejoints en 1994 par la Russie de Boris Eltsine. Cette triple présidence France-États-Unis-Russie est en fait le seul forum multilatéral où diplomates russes, américains et français ont travaillé ensemble. Avant l’intégration de la Russie au Groupe, ce dernier suggère dès avril 1992 la mise en place d’une force de maintien de la paix « Otan/CEI » pour vérifier la pérennisation du cessez-le-feu et pour protéger les convois humanitaires. Mais Moscou va s’opposer à cette initiative, refusant le déploiement sur le territoire concerné d’une force comportant des combattants de l’Otan. Et pour cause, nous verrons dans le chapitre suivant que le principal motif de l’antagonisme persistant entre l’Occident et la Russie postsoviétique est justement la pénétration des dispositifs atlantistes et occidentaux dans une zone « réservée » que Moscou nomme son « étranger proche » (Caucase, Ukraine-Crimée, Biélorussie, Géorgie, républiques turcophones – et autres ex-soviétiques d’Asie centrale/CEI). Au cours de l’année 1993 (année cruciale), l’ONU tente de reprendre les choses en main : à la demande du Conseil de sécurité, son secrétaire général, Boutros Ghali, valide un rapport sur la situation du Haut- Karabagh. Il y rappelle « que les combats dans le Haut-Karabagh constituent une menace pour le maintien de la Paix et de la sécurité internationale dans toute la Transcaucasie ». L’ONU adoptera quatre résolutions (fort inefficaces) au cours de cette seule année 1993. Cependant, le conflit reste latent, comme le montrent les nombreux incidents de frontières (2006, 2008, 2010, 2012, 2013, avril-été 2016 10 , été 2020), qui ont fait chaque fois craindre le retour d’une guerre ouverte que chacun savait inévitable depuis 2016. Le Groupe de Minsk propose un règlement par étapes de la question du Haut-Karabagh. Quatre suggestions seront émises, convergeant vers l’obtention d’un compromis qui comprend la restitution de l’ensemble des territoires occupés par les Arméniens et le droit au retour, en échange d’une véritable autonomie accordée à la communauté arménienne résidant sur ceux-ci. En juin 2016, le Groupe de Minsk présente des propositions concrètes 11 , reposant sur : le retrait complet des forces arméniennes des sept districts occupés ; la démilitarisation du Haut-Karabagh et le déploiement d’une force multilatérale de paix et de sécurité ; la réinstallation des personnes déplacées et le financement de la reconstruction des villes et des villages détruits par la guerre ; in fine, le référendum sur le statut du Haut-Karabagh. Depuis cette date, plusieurs documents, appuyés ultérieurement par l’ONU, sont validés par l’Otan, l’OSCE, le Conseil de l’Europe et l’Organisation de la coopération islamique (OCI), pour résoudre le problème conformément au droit international. Certes, on peut nuancer cette impartialité par le fait que deux membres de l’OCI, Turquie et Pakistan sont des alliés indéfectibles de l’Azerbaïdjan... Toujours est-il que le multilatéralisme a échoué à régler le conflit qui éclate à nouveau. Le retour de la guerre dans le Caucase Le 27 septembre 2020, une nouvelle guerre éclate dans le Haut-Karabagh, lancée cette fois-ci par l’Azerbaïdjan avec, ce qui est nouveau, un appui et une coopération stratégiques turcs officiels et déterminés, cela après de multiples incidents survenus depuis 2016. Cette nouvelle guerre, intense mais localisée dans le Haut-Karabagh, va durer bien moins longtemps que les précédentes, deux mois seulement, mais elle sera particulièrement meurtrière : au moins 7 000 à 8 000 morts du côté arménien, et 4 000 à 5 000 côté azéri, d’après les services de renseignements russes et britanniques. Mais cette fois-ci, les forces azéries ont l’avantage pour trois raisons : 1/ Elles sont bien mieux armées et équipées que dans les années 1990, car elles se sont préparées en utilisant l’argent de la manne pétrolière qui a permis d’acheter des armes et les drones de haute technologie aux Turcs, aux Israéliens, aux Italiens et à d’autres pays de l’Otan dont la France 12 . 2/ Vladimir Poutine a laissé faire, au départ, la reprise de territoires anciennement azéris du Karabagh acquis par les Arméniens dans les années 1990, tout en stoppant l’avancée azérie in extremis, ceci dans une logique d’équilibre mais aussi pour « punir » les Arméniens d’avoir mis au pouvoir, en Arménie, en mai 2018, un Premier ministre antirusse, Nikol Pachinian... 3/ La Turquie d’Erdoğan envoie des armes, des drones, appuie diplomatiquement l’offensive azérie, puis envoie des mercenaires djihadistes arabes et turkmènes de Syrie exfiltrés et entraînés par la société de mercenaires Sadat du général Adnan Tanriverdi. Ce proche d’Erdoğan a recruté depuis des mois des milliers de combattants islamistes et djihadistes cantonnés, depuis l’échec de Daesh et de la rébellion sunnite anti-Assad, dans le nord-ouest de la Syrie, en zone sous contrôle turc (zone officialisée en vertu des accords turco-russo-iraniens de désescalade en Syrie signés lors des rencontres d’Astana et de Sotchi entre 2016 et 2018). Les Arméniens perdent la guerre. Ils doivent capituler et restituer nombre de territoires azéris du Haut- Karabagh et même un peu plus, avec le corridor reliant l’Azerbaïdjan à la Turquie via le Nakhitchevan (république autonome de quatre cent mille habitants peuplée d’Azéris mais jadis d’Arméniens qui en ont été expulsés), tout cela dans le cadre de négociations entre la Russie et la Turquie, pour la première fois présente dans l’étranger proche russe (la Russie dispose de son unique base militaire dans la région en Arménie, à Gumri). On remarquera en passant que, dans le cadre de ce monde multipolaire en voie de constitution, ce n’est pas le Groupe de Minsk, cité précédemment, qui a fait avaliser le cessez-le-feu du 10 novembre 2020, mais une entente tripartite fort cynique entre l’Azerbaïdjan, la Turquie et la Russie, excluant soigneusement des termes de l’accord les parrains occidentaux du Groupe de Minsk (France, États-Unis) : Erevan s’engage à rétrocéder à Bakou les districts d’Aghdam et de Kelbadjar ; un corridor est aménagé à Latchin ; le retour des personnes déplacées sera effectué sous le contrôle de l’ONU ; et, plus concrètement encore, dès le lendemain de la signature de l’accord, deux mille soldats russes sont déployés le long de l’ancienne ligne de front (voir carte n o 10). En fait, l’un des objectifs de guerre de long terme des Azéris, au-delà de la récupération des territoires azéris pris par les Arméniens en 1993, visait l’obtention, extrêmement importante sur le plan stratégique et idéologique, du fameux « passage de Meghri », une bande large de dix kilomètres permettant de relier le territoire azéri à l’enclave azérie du Nakhitchevan, située à l’intérieur du territoire de l’Arménie. L’accord de cessez-le-feu prévoit donc la création d’un corridor, en terre arménienne, qui reliera l’enclave azérie du Nakhitchevan à l’Azerbaïdjan. C’est une victoire pour les Azéris, car, géographiquement, cette région n’avait de frontière qu’avec la Turquie, l’Arménie et l’Iran, mais aucune continuité territoriale avec le reste de l’Azerbaïdjan. De facto, avec ce droit de passage, le rêve des panturquistes, qui, depuis le génocide arménien de 1915, ont toujours voulu faire la « jonction » entre turcophones de Turquie et du Caucase, est sur le point d’être réalisé, la continuité territoriale étant désormais possible et extensible (voir carte n o 11). D’évidence, la question du Haut-Karabagh n’a pas fini d’envenimer l’ensemble du Caucase, sur fond de nationalismes irrédentistes et de géoénergie... La Turquie est entrée en scène... La paix sera durable tant que les Russes assureront la protection du Haut-Karabagh, certes toujours existant, mais très peu peuplé, non reconnu par la communauté internationale et réduit à sa partie nord. De plus, on notera que le couloir de Latchin, seul point de jonction entre l’Arménie et le Haut-Karabagh, est une route étroite qui peut être coupée à n’importe quel moment par la partie azérie. En Azerbaïdjan, l’objectif stratégique maximal viserait la reprise de l’ensemble du territoire autonome et donc de la partie encore peuplée par les Arméniens, ainsi que d’une partie de l’Arménie nécessaire pour assurer une jonction viable plus large entre Turquie, Nakhitchevan et Azerbaïdjan. Pour ce faire, il faudrait une nouvelle guerre, que les Azéris gagneraient probablement si les forces d’interposition russes ne restaient pas ou si Vladimir Poutine obtenait des contreparties de la part des parties azérie et turque... Certes, on n’en est pas là, mais il ne faut jamais oublier, contrairement aux fantasmes de certains russophiles extrêmes, que Moscou n’est pas une puissance idéaliste chrétienne nécessairement proarménienne, mais qu’elle cherche à rester présente sur l’ensemble du Caucase riche en hydrocarbures (Azerbaïdjan), traversé par les routes de transit énergétique, et que dans ce contexte, elle n’a jamais considéré le Haut-Karabagh comme autre chose qu’une partie intégrante du territoire de l’Azerbaïdjan souverain... Tout dépendra donc des relations futures entre la Turquie et la Russie, respectivement protectrices de l’Azerbaïdjan et de l’Arménie. Bien qu’étant une nation indépendante distincte de la Turquie, de confession majoritairement chiite, encore en partie russophone, comme les autres pays du Caucase ex-soviétiques, l’Azerbaïdjan, de langue et d’ethnie turques, est perçue par Ankara comme une nation sœur. Mais cette dernière est coupée des frères azéris par l’obstacle géographique et humain naturel qu’est l’Arménie : les nationalistes panturquistes ont toujours rêvé de fusionner la Turquie avec les pays turcophones du Caucase (Azerbaïdjan et autres minorités « tatares ») ou d’Asie centrale (Turkmenistan, Kazakhstan, Kirghizistan, Ouzbékistan voir carte n o 11). Avec l’impératif de vider les arrières d’un des fronts de la Première Guerre mondiale. Ce fut d’ailleurs la motivation première des officiers jeunes-turcs (« triumvirat »), adeptes du panturquisme raciste (équivalent du pangermanisme hitlérien), qui planifièrent le génocide des Arméniens d’Anatolie de 1915. Le Président turc a ainsi fait d’une pierre deux coups en appuyant ostensiblement, politiquement et militairement (coordination entre les armées turque et azérie), cette guerre pour les « frères turcs azéris » : il fait oublier des problèmes économiques et politiques intérieurs ; il consolide l’alliance électorale de son parti l’AKP, avec les nationalistes panturcs du MHP ; et il renforce la présence turque dans la région stratégique et riche en hydrocarbures du Caucase turcophone (mer Caspienne), alors que la Turquie manque d’énergies fossiles et ne veut pas trop dépendre du gaz russe. Erdoğan a eu l’habileté de négocier cette incursion dans « l’étranger proche » russe en laissant en échange Vladimir Poutine contrecarrer les projets turcs irrédentistes en Syrie 13 , puis au nom de pactes de non-nuisance réciproques en Libye au-delà de certaines lignes... Certains disent que la Russie a abandonné les Arméniens et a cédé aux revendications d’Erdoğan. Une lecture moins idéaliste des événements doit nous rappeler que Moscou ne défend officiellement que l’Arménie reconnue internationalement et que la Russie n’a jamais reconnu le Haut-Karabagh arménien. En suscitant un accord de cessez-le-feu qui sauve les Arméniens de la catastrophe totale tout en donnant des satisfactions aux Azéris, la Russie de Poutine accroît en fait son influence dans le Caucase en tant que puissance d’équilibre dans ce nouveau Grand Jeu russo-turc... Les leçons de la guerre du Haut-Karabagh On ne répétera jamais assez la phrase célèbre de Gaston Bouthoul, « préparez Venus viendra Mars »... Les Arméniens connaissent un déclin démographique catastrophique depuis trente ans ; le Haut-Karabagh s’est vidé, comme l’Arménie, d’une partie de sa population, les habitants des villages sont en moyenne très âgés et l’Arménie n’a pas réussi à y fixer les populations faute de dynamisme économique. Il y a depuis longtemps bien plus d’Arméniens en Russie qu’en Arménie, et nombre d’Arméniens quittent continuellement leur terre pauvre et enclavée pour aller en Russie ou vers l’Occident. Et si l’Arménie a connu une forte instabilité politique ces dernières décennies, en face, la riche et plus jeune république d’Azerbaïdjan, certes non démocratique, est remarquablement stable, avec la dynastie des Aliev, père et fils, au pouvoir depuis 1993. La première conclusion est qu’avec la Chine et d’autres puissances autoritaires, l’Azerbaïdjan et son système illibéral semblent démontrer la plus grande efficacité politique des « démocratures », parfois capable de plus de stabilité par rapport aux démocraties rendues instables par les élections. Et dans le cas arménien, certains ont observé cyniquement que le pays a été gravement divisé, et de ce fait affaibli, face à son ennemi héréditaire azéri, à la suite d’une alternance problématique largement appuyée par l’Occident 14 ... Une autre leçon de ce conflit turco-azéro-arménien a été la démonstration de l’efficacité des armes automatisées, robotisées, comme les drones, qui ont fait la différence dans le Haut-Karabagh, dans le cadre d’une révolution dans les affaires militaires qui s’observe aussi sur des théâtres comme Gaza, ou la Libye, où les différents acteurs utilisent de façon privilégiée les drones, parallèlement au recrutement de mercenaires, autre phénomène croissant dans les nouvelles affaires militaires et conflits régionaux. Ce conflit s’inscrit également dans la grille de lecture de Samuel Huntington qui prédit la multiplication de conflits identitaires dans les zones de fracture et de contact civilisationnelles. Le spectre d’une guerre interétatique entre l’Ukraine et la Russie Toujours dans l’espace postsoviétique, une situation conflictuelle oppose cette fois-ci les deux États les plus importants ex-membres de l’URSS, à savoir la fédération de Russie et l’Ukraine qui, à elles deux, représentaient plus des trois quarts du potentiel économique et les deux tiers de la population soviétiques. Les relations entre ces deux pays sont marquées par un antagonisme croissant caractérisé par un décrochage géopolitique des élites ukrainiennes qui a commencé avec la révolution orange de 2004 et a évolué en une rupture totale avec l’Euromaïdan, l’annexion de la Crimée et le conflit armé du Donbass (2014, voir carte n o 14). Le conflit armé à l’est de l’Ukraine (voir carte n o 14), qui a éclaté en 2014 et a fait plus de treize mille morts et près d’un million et demi de déplacés, n’est pas une simple guerre civile ukrainienne mais oppose dangereusement les troupes russes à celles de l’Otan en plus de risquer à tout moment d’évoluer en une guerre interétatique entre la Russie et l’Ukraine, cette dernière compensant sa faiblesse par l’appui occidentalo-américain. Il résulte d’un antagonisme plus large, opposant, d’une part, les puissances externes atlantistes, indirectement impliquées (Otan) et, de l’autre, la Russie, directement engagée. Les Ukrainiens y voient un conflit interétatique l’opposant à la Russie, accusée d’intervenir dans le Donbass en soutenant des rebelles prorusses. En revanche, Moscou affirme qu’il s’agit d’une guerre civile entre les séparatistes russophones de l’est de l’Ukraine et le pouvoir nationaliste de Kiev. Rappelons le contexte général : depuis la fin des années 1990, la Russie a connu une certaine reprise économique soutenue par la hausse des prix des hydrocarbures. Elle essaie donc de transformer cette amélioration conjoncturelle en influence politique avec comme objectif final la reconstitution d’un espace fondé sur un projet d’intégration coïncidant largement avec l’Union soviétique et naturellement dominé et guidé par Moscou. Toute la politique étrangère de Vladimir Poutine s’inscrit dans cette tendance lourde de la géopolitique russe traditionnellement tournée vers la conquête territoriale des zones qui entourent son noyau central européen historique. Dans ce dispositif, l’Ukraine représente évidemment la pièce maîtresse qui permet à la Russie de redevenir une puissance eurasienne car, à partir de ce pays, la Russie peut se projeter à la fois sur la mer Noire, la Méditerranée orientale et l’Europe centrale et balkanique. D’où la stratégie américaine visant à soutenir en Ukraine, comme en Géorgie et ailleurs, les forces politiques hostiles à Moscou. Cette manœuvre fait d’ailleurs d’une pierre deux coups en fragilisant la sécurisation des gazoducs acheminant le gaz russe vers l’Europe de l’Ouest, qui n’est pas du goût des États-Unis qui y voient un risque de dépendance de l’UE envers la Russie. D’où également l’hostilité américaine envers le gazoduc Nord Stream qui contourne l’Ukraine, par le nord, appuyé par l’UE, surtout par l’Allemagne (Voir carte n o 13). Les événements du printemps 2021, qui ont failli déboucher sur une guerre directe entre l’Ukraine et la Russie avec une implication indirecte de l’Otan, illustrent les aléas de ce conflit au départ apparemment intraétatique, susceptible de conduire dans un second temps à une véritable guerre interétatique. Ceci est inédit pour cette région du monde depuis la fin de la Seconde Guerre mondiale si l’on ne tient pas compte des guerres chaotiques survenues dans les années 1990 en ex-Yougoslavie. Stratégies et buts de guerres de part et d’autre Le bras de fer entre la Russie et l’Ukraine le long de la frontière commence fin mars 2021 lorsque la Fédération de Russie masse des dizaines de milliers de soldats dans les régions russes adjacentes et en Crimée (annexée par Moscou en 2014). Plusieurs experts russes informés de la situation, comme le spécialiste des questions de défense et journaliste d’opposition Pavel Felgenhauer, ont dévoilé les supposés plans de guerre russes, révélant que Moscou se préparait à une grande guerre d’envergure qui devait être lancée par deux grandes percées à partir de Belgorod, vers le sud, et de la Crimée, vers le nord, afin de prendre en tenailles l’essentiel de l’armée ukrainienne qui se trouvait dans la partie orientale du pays. L’objectif aurait été de la détruire et d’imposer une solution favorable aux intérêts russes. Côté ukrainien, certaines sources indiquent qu’il y aurait également une volonté de reproduire le scénario azéri, pour récupérer militairement les territoires russophones rebelles de l’Est, l’Ukraine escomptant que la Russie n’ose pas intervenir massivement et directement dans le Donbass pour plusieurs raisons : primo, Moscou n’a pas le droit légal d’intervenir sur le sol ukrainien dont le Donbass (voir carte n o 14) fait partie, sachant que l’indépendance de ces républiques autoproclamées n’a jamais été reconnue par les autorités russes elles-mêmes (comme celle du Haut-Karabagh). Ainsi, Kiev croyait que Moscou se serait comporté dans le Donbass de la même façon qu’elle l’a fait au Nagornyi-Karabakh, c’est-à-dire en suivant scrupuleusement le droit international et les frontières légales reconnues. Secundo, l’Ukraine espérait que la menace des sanctions très lourdes infligées par l’Occident à la Russie, si elle optait pour un scénario de guerre directe, dissuaderait Moscou d’agir de la sorte. Tercio, le soutien indirect de l’Alliance atlantique, qui s’est montrée solidaire de l’Ukraine en mobilisant des troupes et en se disant prête à dépêcher des bâtiments de guerre en mer Noire, a constitué une autre forme de dissuasion car cela aurait pu déboucher sur une guerre conventionnelle à grande échelle que la Russie ne pourrait pas gagner ou se permettre de livrer. Il convient aussi de souligner que cette crise a récemment pris une forme différente car le président américain Joe Biden est intervenu directement en soutien de Kiev, à la différence des réactions prudentes de Barack Obama en 2014, secondé d’ailleurs par Biden lui-même, alors adepte de l’apaisement. Il est vrai que depuis lors, l’armée ukrainienne s’est considérablement rénovée : en 2014, elle ne pouvait aligner que 6 000 soldats prêts au combat, alors qu’aujourd’hui elle compte des dizaines de milliers de soldats bien entraînés par des instructeurs américains et canadiens présents en Ukraine dans le cadre d’accords de coopération militaire. Le budget de l’armée ukrainienne a été augmenté et les forces nationales restructurées. Le géopolitologue Viatcheslav Avioutskii rappelle ainsi qu’en 2020, le Pentagone a accordé 250 millions de dollars au titre de l’aide militaire aux forces armées ukrainiennes. Les Ukrainiens ont cependant toujours réfuté les rumeurs d’intention guerrière en insistant sur le fait qu’ils cherchent une solution diplomatique, le président Volodymyr Zelensky ayant même proposé une nouvelle rencontre personnelle dans le Donbass ukrainien à Vladimir Poutine. Mentionnons également le soutien de la Turquie d’Erdoğan au camp nationaliste ukrainien : le néosultan essaie d’utiliser l’Ukraine dans ce jeu d’échecs régional – au même titre qu’il le fait en Syrie et en Libye. À l’apogée de la crise du printemps 2021, il est d’ailleurs intéressant de rappeler la visite du président ukrainien Zelensky à Ankara pour afficher le soutien d’Erdoğan à sa cause, cela avant même de se rendre à Paris pour rencontrer Emmanuel Macron... Ce dernier a d’ailleurs évité de s’impliquer dans cette affaire trop délicate et problématique pour lui, d’autant qu’il est à couteaux tirés avec le néosultan turc et demeure objectivement du côté russe sans l’avouer. Ce conflit existentiel russo-ukrainien, alimenté par la nouvelle guerre froide russo-occidentale, peut-il vraiment être résolu autrement que par la guerre ? Le scénario le plus probable est que l’Ukraine obtiendra à terme son intégration au sein de l’Otan, de plus en plus empathique envers sa cause, et qui profitera de ce prétexte pour s’étendre toujours plus à l’est au détriment de « l’étranger proche russe ». Ceci pourrait donner la possibilité à l’Ukraine de récupérer militairement un jour ses territoires contestés, ou au moins forcer la main à la Russie dans le cadre de négociations. Cependant, Moscou n’acceptera pas facilement ce type de scénario d’empiétement majeur sur son pré carré. Vladimir Poutine pourrait alors avoir recours à de nouvelles escalades du type de celle du printemps 2021. La guerre avec l’Occident (Otan), directe ou indirecte, n’est quant à elle pas totalement à exclure, certes dans le scénario le plus pessimiste. Cela signifierait que la Russie, si elle est encore contrôlée par les forces hostiles à l’Alliance atlantique, accentuerait son rôle d’État multipolariste soutenant des États hostiles à l’Occident, dont la Chine, la Corée du Nord, l’Iran, et toutes les autres forces alternatives. Cet énorme gâchis géopolitique, qui empêche toute réconciliation occidentalo-russe panoccidentale, serait désastreux pour l’autonomie stratégique de l’Europe et la sécurité collective des Occidentaux, et ne bénéficierait qu’aux deux grands prédateurs civilisationnels et stratégiques revanchards que sont l’islamisme radical étatique ou transnational et la Chine néomaoïste. Taiwan : vers un affrontement direct Chine-États-Unis ? La situation actuelle à Taiwan est également fortement sismique. Depuis avril 2021, les potentialités belligènes du contentieux qui oppose depuis des années, sur le terrain diplomatique et politique, la Chine communiste- continentale à l’île de Taiwan, se sont nettement intensifiées. Le 12 avril 2021, la pénétration de vingt-cinq avions de combat chinois dans la zone de défense aérienne de Taiwan 15 a constitué la plus grande incursion de l’armée chinoise dans la zone que Pékin a cherché longtemps à isoler diplomatiquement avec succès au nom du slogan « une seule Chine », mais que le président chinois Xi Jinping a promis d’annexer de son vivant de gré ou de force. L’urgence de la situation a été pointée du doigt devant le comité des forces armées du Sénat américain le 9 mars 2021 par Philip Davidson, le chef du commandement du Pacifique des États-Unis 16 , pour qui une guerre serait même possible entre les États-Unis et la Chine si cette dernière maintenait son engagement d’envahir Taiwan avant la fin de la décennie. Davidson a notamment averti que les États-Unis ont toutefois fort peu de chances d’empêcher cette invasion, car la Chine possède l’avantage, que ce soit du point de vue du nombre que du point de vue logistique, les bases chinoises n’étant qu’à deux cents kilomètres de Taiwan. En réponse aux avertissements et aux velléités interventionnistes de l’administration Joe Biden tant dans les prés carrés russes (Ukraine) que chinois (mer de Taiwan), la Russie et la Chine ont d’ailleurs uni leurs forces pour menacer les États-Unis simultanément dans deux points chauds. Ainsi, le 13 avril 2021, au moment où les forces russes se sont massées à la frontière ukrainienne alors que les navires de guerre américains se préparaient à entrer dans la mer Noire, le vice-ministre russe des Affaires étrangères, Sergueï Ryabkov, a mis en garde l’équipe Biden contre toute implication en Ukraine, et le même jour, quand les navires de guerre américains ont tenté de dissuader en vain l’aviation chinoise de pénétrer en masse dans l’espace aérien de Taiwan, le porte-parole du ministère chinois des Affaires étrangères, Zhao Lijian, mettait en garde l’administration Biden lors d’une conférence de presse contre toute implication à Taiwan. Pour la première fois, les deux régimes ont symboliquement synchronisé leurs avertissements, mettant en garde les États- Unis de ne pas franchir la ligne rouge pouvant mener à un conflit ouvert. Nul doute que c’est en partie dans le but de tenter de conjurer cette « alliance antihégémonique » tant redoutée par Brzezinski et dans le cadre de la prise de conscience de la menace chinoise croissante que le président Biden a tenté d’initier un apaisement avec la Russie lors de sa rencontre avec Vladimir Poutine, à Genève, le 16 juin 2021. Mais l’on est d’autant plus loin d’un reset avec Moscou que, quelques jours plus tôt, lors du sommet de l’Otan, le 14 juin, à Bruxelles, les États-Unis ont ciblé une fois de plus l’ennemi russe et le tandem russo-chinois, accusé de « rejeter l’ordre international fondé sur des règles », comme si les États-Unis et l’OTAN les avaient eux-mêmes respectées (Balkans, Irak, Lybie, etc)... La « surreprésentation » des conflits intraétatiques Aujourd’hui, les conflits intraétatiques sont ultramajoritaires. Durant la période 1975-2000, sur vingt-huit conflits de premier ordre, huit sont interétatiques, six postcoloniaux et quatorze intraétatiques. Entre 1990 et 2018, sur quatre-vingt-seize conflits de premier ordre, les soixante premiers conflits sont ou ont été clairement intraétatiques. On peut citer, par exemple, la guerre civile syrienne, sur laquelle nous reviendrons, celle du Yémen, toujours en cours, qui oppose rebelles chiites-houthistes soutenus par l’Iran, d’une part, aux sunnites progouvernementaux liés aux Frères musulmans et aux monarchies du Golfe, de l’autre, soutenus par les États-Unis et l’Occident ; le conflit intercommunautaire opposant les Philippines à la Malaisie dans l’État malaisien de Sabah (2013) ; les conflits africains, surreprésentés : Congo/Kinshasa 17 ; Ethiopie, où les rebelles de la région dissidente du Tigré (Nord), en guerre contre le pouvoir central et son ethnie majoritaire (Oromo), ont pris les principales villes de la zone, Adigrat, Shiré et depuis le 29 juin 2021, la capitale régionale Mekele ; Côte d’Ivoire (opposition entre ethnies rivales, Nord rebelle et capitale, puis entre pro-Gbagbo et pro-Ouattara) ; Kivu 18 ; République centrafricaine (luttes interethniques et conflits sédentaires chrétiens/musulmans venus du Nord), génocides du Soudan (1990- 2000 : chrétiens du Sud-Soudan et musulmans noirs du Darfour exterminés par la junte nationale-islamiste arabe du Nord) ou du Rwanda (1994, Hutus contre Tutsis). Ce dernier conflit a été cruellement révélateur de l’impuissance des Nations unies et donc du dit « multilatéralisme » vanté par les adeptes de la mondialisation heureuse et de la « gouvernance mondiale »... On peut citer aussi bien évidemment l’éternel conflit israélo-palestinien, qui a semblé revenir sur le devant de la scène avec la brève guerre Tsahal-Hamas à Gaza, en mai 2021. Toutefois, avant même cette crise, qui a révélé l’extrême isolement du Hamas, non soutenu par l’Autorité palestinienne et par la plupart des pays arabes, on a pu constater depuis lesdites « révolutions arabes » que le conflit israélo-palestinien a été relégué au second plan, un phénomène renforcé avec les accords d’Abraham de septembre 2020 qui ont scellé la réconciliation entre l’État juif et cinq pays arabes sous l’impulsion des États-Unis et des Émirats arabes unis (alliance contre l’ennemi commun iranien). Durant l’été 2006, une guerre voisine avait déjà opposé Israël à l’homologue chiite- libanais du Hamas, le Hezbollah, lui aussi appuyé par l’Iran (« guerre des 33 jours »), mais il ne s’agissait pas officiellement d’une guerre interétatique Liban-Israël. On pense bien sûr aussi aux conflits du Caucase : celui de Géorgie, en 2008, qui opposa les séparatistes prorusses ossètes du Nord et abkhazes à la Géorgie pro-occidentale de l’ex-président Mikheil Saakachvili, sur fond de tensions occidentalo-russes ; celui qui opposa trois fois forces arméniennes et Azerbaïdjan, analysé plus haut, ou encore celui de Tchétchénie, où se sont opposés, dans les années 1990-2000, une première fois les rebelles indépendantistes puis les djihadistes à Moscou et, une seconde fois, les séparatistes islamistes et djihadistes internationaux wahhabites aux partisans prorusses du clan tchétchène de Hamkhat et Ramzan Kadyrov... Trente-sept conflits ouverts en cours aujourd’hui Concernant les trente-sept conflits ouverts toujours en cours, exception faite du Donbass et du Haut-Karabagh, la présence des États de l’hémisphère Sud demeure écrasante : Irak : conflits internationalisés entre chiites et sunnites ; Kurdes et Arabes ; djihadistes et nationalistes ; Libye : conflits internationalisés entre, d’abord, les pro- et les anti-Kadhafi durant le printemps arabe puis, ensuite, entre les forces islamistes proturques de Tripoli liées à la Turquie et au Qatar et l’armée du maréchal Haftar soutenue par les Émirats arabes unis, l’Égypte, la Russie et la France ; Syrie : cinq cent mille morts des « guerres dans les guerres » entre, d’une part, le régime de Bachar al- Assad, appuyé par l’Iran et la Russie, et, de l’autre, la rébellion sunnite appuyée par l’Occident, la Turquie et les monarchies du Golfe et les légions djihadistes d’al-Qaida et Daesh, elles-mêmes en guerre contre les séparatistes kurdes pro-occidentaux du Nord ; Somalie : implosion du pays en trois entités et prise de contrôle par les djihadistes des tribunaux islamiques et des shebabs pro-al-Qaida liés aux pirates ; Nigeria : entre chrétiens du Sud et musulmans du Nord et entre États fédérés et fédéraux et djihadistes de Boko Haram, etc. ; Cachemire : province indienne majoritairement peuplée de musulmans revendiquée par le Pakistan islamique, etc. ; Sahara occidental : conflit qui oppose depuis des décennies des indépendantistes du Sahara occidental au Maroc qui le revendique et l’occupe en grande partie, un conflit en train de resurgir. Taiwan : conflit précité entre la Chine d’un côté, et Taiwan et son allié les États-Unis de l’autre ; Égypte/Éthiopie/Soudan : conflit autour du barrage du Nil de l’Éthiopie (voir chapitre X). Dans tous ces conflits, l’efficacité des Nations unies et en général du multilatéralisme est nulle, et les rares avancées constatées dans le conflit israélo-palestinien mentionné plus haut ou dans d’autres antagonismes réglés ou gelés sont, dans l’écrasante majorité, dues à des négociations de Realpolitik et aux rapports de force... La zone Sahel devenue une des plus létales au monde... La situation du Mali/Burkina Faso, et en général dans le Sahel, zone grande à elle seule comme toute l’Union européenne, est particulièrement préoccupante et confirme le constat exprimé plus haut de l’échec du multilatéralisme comme des interventions militaires lancées avec l’aval des Nations unies ou d’instances multilatérales régionales, comme le G5 Sahel, l’Union africaine ou la Cedeao : l’intensification et l’extension des actions terroristes vers le sud touchent de plus en plus de régions et d’États d’Afrique. Le conflit malien, initié en 2012 par l’alliance explosive de groupes séparatistes et djihadistes au nord, en guerre contre la capitale, s’enlise depuis déjà dix ans. Il ne cesse de prendre de l’ampleur, avec un nombre d’acteurs croissant, dont une multitude de groupes locaux, arabo-berbères au départ, et de plus en plus peuls, qui ont prêté allégeance tantôt à Aqmi/al-Qaida au Maghreb islamique, tantôt à l’État islamique (EI) au Sahel. L’armée malienne est totalement dépassée, comme l’ensemble des pays du G5 Sahel, et l’armée française n’a pas obtenu de résultats (opérations Serval, Épervier et Barkhane), faute de forces assez nombreuses et de solutions politiques et économiques viables associées. Son échec a débouché sur une suppression de ses bases au Nord Mali et sur une réduction des effectifs militaires dans la zone Sahel de 5 100 à 3 000 soldats. En août 2020, les forces armées maliennes ont perpétré un coup d’État qui a conduit au renversement du président Ibrahim Boubacar Keïta, au pouvoir depuis 2013. De plus, l’escalade des violences intercommunautaires (entre les ethnies dogons et peuls) ne cesse de s’étendre aux pays voisins, notamment le Burkina Faso 19 , et même jusqu’au Bénin ou à la Côte d’Ivoire, jadis épargnés. Entre 2012 et 2020, on y a recensé plus de 8 000 morts, dont 2 700 civils 20 . Le 20 avril, c’est face à des rebelles terroristes du Nord du Tchad que le président tchadien, Idriss Déby, meilleur allié de la France contre le jihadisme, a trouvé la mort. Une énième conséquence de la folle guerre franco-américano-britannique qui a fait de la Libye l’épicentre chaotique qui alimente en armes et mercenaires tout le jihadisme sahélien... L’incessant conflit du Cachemire entre Inde et Pakistan Un autre conflit interétatique qui perdure et qui n’a pas été éteint par le multilatéralisme onusien concerne l’Inde et le Pakistan, toujours à couteaux tirés : avec la révocation de l’autonomie constitutionnelle du Cachemire indien, en août 2019, le conflit qui oppose le Pakistan islamique, parrain des talibans et d’al-Qaida, et l’Inde, dirigée par le parti intégriste hindouiste BJP, s’est intensifié, avec 582 bombardements transfrontaliers en 2019 (contre 349 en 2018 21 ), soit une augmentation de près de 70 %, poussant New Delhi à déployer des dizaines de milliers de militaires à la frontière. La crainte d’une guerre entre les deux nations possédant le feu nucléaire se fait donc de plus en plus ressentir, même si elle se traduit par l’emploi d’armes conventionnelles. Mais comment être certain que ces deux pays ennemis n’utiliseront jamais le feu nucléaire, comme d’autres d’ailleurs, d’autant que le Pakistan est travaillé de l’intérieur par des groupes islamistes liés à al-Qaida et aux talibans et que l’intégrisme hindutva antimusulmans a gagné du terrain ces dernières décennies en Inde ? Après ces événements, le Premier ministre pakistanais, Imran Khan, a d’ailleurs déclaré : « Quand le couvre-feu sera levé, ce sera un bain de sang. Si une guerre commence entre nos deux pays, tout peut arriver », laissant planer la menace d’un conflit nucléaire 22 . L’Inde elle-même n’est pas épargnée par les tensions interethniques et religieuses internes, notamment entre hindous et musulmans, en dehors du territoire disputé du Cachemire. Une fois de plus, les avertissements de Samuel Huntington sur le fait que les chocs entre civilisations ne sont pas empêchés par la globalisation des échanges et les facteurs de contacts mais parfois même multipliés par eux sont plus actuels que jamais. La multiplication des tensions et conflits locaux en Asie Prenons cette fois-ci l’exemple de l’Asie-Pacifique, bien moins sage que le laissent accroire les lieux communs occidentaux sur l’Asie bouddhiste-hindouiste zen et pacifique. À l’heure actuelle, on peut y recenser une bonne soixantaine de contentieux susceptibles de déboucher sur un conflit ouvert. Nous pouvons citer notamment : les tensions permanentes entre la Chine et le Japon, les Philippines et la Malaisie, le Japon et la Corée du Sud, la Malaisie et l’Indonésie ; les litiges frontaliers entre la Chine et le Viêtnam, le Myanmar (Birmanie) et la Thaïlande, le Cambodge, le Viêtnam, Singapour et la Malaisie. Le Japon, par exemple, reste directement impliqué dans quatre contentieux régionaux majeurs : la question des rochers Liancourt, occupés depuis 1954, au cœur de la mer du Japon ; les îles Ryukyu, environnées d’un plateau continental très riche, revendiquées simultanément par le Japon, la Chine de Pékin, la Chine de Taipei et la Corée du Sud ; le secteur méridional de l’archipel des Kouriles, qualifié par Tokyo de « territoires du Nord », originellement peuplé de Japonais, expulsés ensuite, mais occupé par la Russie depuis la fin de la Seconde Guerre mondiale. Cet archipel revêt un fort intérêt économico-stratégique pour la Russie, car il recèle des réserves minières et de terres rares, comme le rhénium 23 , ainsi que des gisements de pétrole et de gaz, il constitue aussi une porte stratégique sur le Pacifique pour les deux bases navales russes de Vladivostok, d’où les navires partent via le détroit qui ne gèle pas en hiver entre les îles Kounachir et Itouroup, deux des quatre îles Kouriles ; le contentieux autour des îles Senkaku (ou Diaoyu en chinois), revendiquées par ces mêmes puissances où la situation est devenue très conflictuelle depuis que le gouvernement japonais a décidé, en septembre 2012, de nationaliser trois des cinq îles de l’archipel 24 qui se situent en mer de Chine orientale. Cette crise met en perspective une dimension géostratégique importante avec pour toile de fond une concurrence pour le leadership régional et un contrôle des nombreuses richesses de la région, la zone ayant un grand potentiel économique notamment grâce aux importants gisements d’hydrocarbures 25 . Les tensions en mer de Chine orientale risquent donc de se prolonger, à moins que les deux pays décident de s’entendre sur une gestion commune des ressources naturelles de la région. La Chine à l’assaut de la mer de Chine méridionale Un conflit similaire oppose également, autour de l’archipel des Paracels et des Spratleys (voir carte n o 6), plusieurs pays du Sud-Est asiatique : Chine, Viêtnam, Taiwan, Philippines, Malaisie, etc., lesquels se disputent la souveraineté territoriale de ces îlots qui occupent une place hautement stratégique, puisque environ un tiers du trafic maritime mondial y passe... Depuis plusieurs décennies, 15 km² de terres émergées comprenant 230 îles dispersées sur 425 000 km² de mers sont au centre des tensions régionales en mer de Chine méridionale, que les Vietnamiens appellent « mer de l’Est ». L’enjeu est d’obtenir les zones économiques exclusives (ZEE) les plus élargies possible, en fonction du droit international, pour les uns (Viêtnam), et contre celui-ci pour les autres (Chine), les buts stratégiques étant l’exploitation des ressources naturelles, puis le contrôle des grands détroits régionaux. Le Viêtnam, puissance émergente du monde multipolaire, qui tente de réaffirmer sa maritimisation régionale, ne pouvant pas lutter à armes égales contre la Chine, mise sur le dispositif de l’Asean (voir cartes n os 3 et 4), qui inclut des pays partageant les mêmes préoccupations (Malaisie, Philippines, Brunei), et se rapproche des États-Unis, l’ancien ennemi juré, ainsi que de l’Inde, et de l’Australie dans une logique d’endiguement de la Chine. Le conflit des Spratleys et Paracels illustre à merveille le processus en cours de reconfiguration multipolaire du monde et les sérieuses limites de l’arbitrage international et du multilatéralisme au profit des purs rapports de force... Ainsi, lorsque la Cour d’arbitrage permanente de La Haye s’était prononcée en 2016 en faveur de Manille à propos du contentieux des Paracels (voir chapitre IX), Pékin avait répondu de façon décomplexée qu’elle n’accordait aucune légitimité à cette décision... L’aberration géopolitique de la question nord-coréenne Comme l’actualité l’a souvent évoqué en raison des personnalités particulières de Donald Trump et du tyran nord-coréen Kim Jong-un, la région Asie-Pacifique est aussi marquée par les conséquences d’une véritable aberration géopolitique : le contentieux coréen se traduit par un armistice vieux de deux tiers de siècle, sans signature de traité de paix et par les spécificités inquiétantes du régime communiste nucléaro-centré nord-coréen qui entretient des relations conflictuelles avec le reste du globe en général, le Japon, la Corée du Sud et les États-Unis en particulier. Le régime de Pyongyang est la plus terrible dictature de la planète. L’armée contrôle la police politique qui espionne tout le monde et encourage la délation. Dans une douzaine de camps de concentration, cent cinquante mille prisonniers, opposants politiques et droit-commun confondus, croupissent au nom de l’idéologie officielle maoïste- stalinienne-nationaliste du juche, qui divinise quasiment le leader suprême et sa dynastie. Toutes les ressources du pays sont détournées au profit de la dynastie Kim alors que la majorité des habitants dispose à peine de quoi se nourrir. Ce pays, qui avait été rangé dans la catégorie d’« État voyou », menace régulièrement de frappe nucléaire l’archipel japonais et les îles Hawaï, et négocie ainsi, par la terreur, des aides humanitaires et financières récurrentes. Séoul est directement la cible d’assassinats politiques, détournements d’avion, attaques terroristes, chantages de la part de Pyongyang. Tout cela a motivé les administrations américaines néoconservatrices de G. Bush Jr à ranger la Corée du Nord dans l’axe du mal. Ceci dit, il convient de comprendre la rationalité du régime nord-coréen et la raison de sa longévité, ceci malgré l’horrible famine qui a décimé 6 % de sa population. De ce point de vue, le jugement de valeur moral stigmatisant Pyongyang « ne permet pas, non plus, d’expliquer pourquoi le Nord remporte chacune des parties de bras de fer qui l’opposent à la communauté internationale 26 , observe justement Pascal Dayez- Burgeon. [...] Grâce au chantage humanitaire, il a obtenu des programmes de l’ONU, de la Chine, des États-Unis et de nombreuses ONG sud-coréennes, l’aide indispensable pour survivre. Grâce au chantage nucléaire, il s’est également ménagé l’appui de Washington », qui a soutenu un temps ses ambitions nucléaires civiles... Quant à la Chine, elle doit manœuvrer habilement. Et si elle a parrainé les rencontres de dialogue en vue de la paix entre Kim Jong-un et Donald Trump depuis 2017, c’est aussi parce que le régime de Pékin n’a pas intérêt à ce que la menaçante dictature stalino-maoïste autarcique continue à être « l’ennemi utile » qui justifie le renforcement du dispositif balistique, radar et antimissile de l’armée américaine dans la région. Cette présence étatsunienne stratégique (sous-marins lanceurs d’engins, flotte américaine en mer de Chine, coopération de défense avec la Corée du Sud et le Japon, etc.) est fort problématique pour la capacité de dissuasion chinoise et son objectif de contrôler son flanc maritime sud. La Corée du Nord, enfin, joue très bien le rôle du « fou » qui s’oppose au fort, dans une sorte de travestissement de la doctrine du général Gallois dite « du faible au fort », devenue « du fou au fort ». D’autres, à commencer par le dictateur Kim Jong-un lui-même, ont parlé « d’assurance-vie » : l’Irak et la Libye ont renoncé à leurs programmes nucléaires et n’ont pas échappé aux interventions militaires occidentales de regime change, se plaît souvent à répéter Kim Jong-un, à juste titre d’ailleurs. Il est vrai que quelques ogives nucléaires associées à des missiles balistiques de longue portée suffisent à calmer les plus grandes puissances, dont plus aucune des capitales ne demeure à l’abri. Contrairement à Saddam Hussein ou à Kadhafi, la Corée du Nord a eu l’intelligence de ne pas attendre longtemps avant de lancer un programme de développement du nucléaire qu’aucune puissance ne peut plus se permettre aujourd’hui de bombarder. La morale de cette histoire est que les Occidentaux, en renversant deux régimes qui ne les avaient pas ou plus agressés (Irak, Libye), une fois que ceux-ci avaient renoncé au nucléaire militaire, ont donné des raisons à tous les autres régimes voyous ou antioccidentaux du monde qui en auraient les moyens de ne jamais renoncer au nucléaire, ou d’y songer fortement en tant qu’assurance-vie... La superpuissance montante et revancharde chinoise La Chine a connu de profonds bouleversements depuis un demi-siècle sur le plan des relations internationales. Pourtant, une constante l’anime : essayer de conjurer par tous les moyens le spectre des concessions, notamment vis- à-vis de l’Occident, qui obligèrent la Chine à céder des pans de son territoire et plusieurs de ses ports, dont Hong Kong, aux puissances européennes, dans la foulée des deux guerres de l’opium (1839-1842, 1856-1860). Ces affronts n’ont jamais été oubliés ni pardonnés par Pékin. Et les stratèges, dirigeants et chroniqueurs chinois évoquent régulièrement l’humiliation passée des occupations de Pékin et Shanghai, etc. Outre ces contentieux historiques, dont Hong Kong est un des symboles, deux faits majeurs ont rappelé que la Chine est de plus en plus sûre d’elle- même : parallèlement aux incidents de frontières avec la Russie le long du fleuve Amour – rivalité qui persiste malgré leur alliance stratégique au sein de l’OCS (voir chapitre V) –, son contentieux avec l’Union indienne, d’une part, et son souci de s’affirmer comme une véritable puissance maritime, d’autre part, sont des tendances lourdes. Deux contentieux frontaliers ont ainsi resurgi récemment entre la nouvelle superpuissance chinoise et l’Union indienne, puissance nucléaire depuis 1974 : après une période de relative accalmie, les pays rivaux sont en situation de conflit latent à l’est du Cachemire (également source de conflits pérennes avec le Pakistan, autre puissance nucléaire), et l’on se souvient de la guerre sino-indienne de 1962, brève mais très violente, pour le contrôle des territoires himalayens. La Chine occupe trois territoires revendiqués par l’Inde, dont le Ladakh, d’un haut intérêt stratégique, où les armées chinoises et indiennes ont été au bord du conflit en 2019-2020 et où la Chine a multiplié les bases militaires. Pékin a également remis en question l’accord dit « de la ligne MacMahon » et s’est installé dans l’Himachal Pradesh. Plus important peut-être à l’échelle de l’Asie-Pacifique : l’affirmation de la puissance maritime chinoise se traduit en particulier par la multiplication de ses installations militaires au large de son littoral et de manière spectaculaire en mer de Chine méridionale, de Food Island à Mischief Reef, en passant par Fiery Cross... Au-delà de cet exemple édifiant, un constat général s’impose : les contentieux de premier ordre, susceptibles de dégénérer en conflits ouverts, sont plus que jamais d’actualité et se sont nettement multipliés. Ceci étant, cette observation s’explique aussi par la découverte et l’exploitation d’appréciables ressources naturelles. Le politiste américain Michael L. Ross, de l’Ucla (l’Université de Californie à Los Angeles), avait pu écrire naguère « que les économies d’extraction constituent une véritable malédiction dans la mesure où les probabilités de conflits ouverts dans les pays possédant du pétrole, du gaz, des diamants, des minerais rares ont fortement augmenté au cours du dernier tiers de siècle, au même titre que le nombre de groupes rebelles multipliant ici ou là les exactions 27 ». Nous verrons au cours des passages de cet essai consacrés aux énergies, aux guerres de l’eau et des terres rares que les exemples ne manquent pas (voir chapitre X). Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Pour récapituler, dans le monde instable et multipolaire qui vient, les conflits majeurs et potentiels – qui ne comprennent pas les risques climatiques ou sanitaires, plus indépendants des agendas politiques et géopolitiques et étudiés plus loin – peuvent être fondés sur : des antagonismes géoénergétiques ou autour de l’eau et des terres rares ; la persistance des rivalités et conflits infra-étatiques internationalisés ou régionalisés ; la guerre géoéconomique et financière autour des rivalités entre l’Occident et ses outsiders et entre les acteurs principaux du monde polycentrique ; des conflits identitaires que Samuel Huntington a rangés dans la catégorie des « chocs de civilisations » ; des phénomènes migratoires de masse incontrôlés ; le terrorisme international, très majoritairement islamiste ; les chocs des empires naissants ou résurgents (néo-ottomanisme turc versus nationalismes arabes et Europe ; États-Unis versus Chine et Russie). 1. Jacques Soppelsa, Les Sept Défis capitaux du nouvel ordre mondial, Paris, A2C Médias, 2009. 2. Entretien avec Éric Denécé, « Nouvelles menaces, nouveaux risques, nouveaux défis, la France est-elle préparée ? », Atlantico, 28 janvier 2020. 3. Irak, Afghanistan, Libye, Syrie, ex-Yougoslavie, Ukraine, Géorgie, Yémen, Soudan, Mali, Somalie, RCA, Côte d’Ivoire, RDC. 4. Étude scientifique de la guerre considérée comme « phénomène psychologique et social ». 5. Gaston Bouthoul et René Carrère, Le Défi de la guerre. 1740-1974 : deux siècles de guerre et de révolution, Paris, PUF, 1976, p. 34. 6. Conflits frontaliers entre le Pérou et l’Équateur en janvier-février 1995. 7. À Khojaly, les forces arméniennes vont massacrer 613 civils, dont 63 enfants et 70 vieillards et déplacer 1 275 otages. Les circonstances, que la propagande azérie qualifie de « génocide », demeurent non élucidées. 8. Devenue à partir de 1995 l’Organisation pour la sécurité et la coopération en Europe (OSCE). 9. En mai 1994, suite à la guerre du Karabakh, le Groupe de Minsk est médiateur pour signer le traité de Minsk qui organise un cessez-le-feu au Haut-Karabagh. Il est alors coprésidé par les États-Unis, la France et la Russie et inclut l’Allemagne, la Biélorussie, la Finlande, l’Italie, les Pays- Bas, le Portugal, la Suède, la Turquie, l’Arménie et l’Azerbaïdjan. 10. Durant la guerre d’avril 2016 (« guerre de 4 jours »), l’armée azérie a tenté de reprendre le Karabakh par la force, un cessez-le-feu avait été obtenu grâce à la médiation russe. Ankara n’a alors pas bougé. La nouveauté de 2020 a été la supériorité technologique des Azéris et la participation active de l’armée turque. 11. « Principes de Madrid », www.chroniques-diplomatiques.eu/2010/03/les-principes-de-base-de-madrid-et-le.html. 12. Via la vente de satellite d’observation soi-disant civil... 13. Alexandre Del Valle, « Haut-Karabakh. Du Caucase à l’Afrique, de Libye en Azerbaïdjan : les nouveaux fronts stratégiques d’Erdoğan », Atlantico, 12 octobre 2020. 14. Voir Tigrane Yégavian, « Les Diasporas turque et azerbaïdjanaise de France : instrument au service du panturquisme », rapport n o 27 du CF2R, téléchargeable sur https://cf2r.org/.../les-diasporas-turques-et.../. 15. « Tensions. Taïwan dénonce une incursion record de 25 avions militaires chinois près de ses côtes », Courrier international, 13 avril 2021. 16. Thomas Romanacce, « L’US Army devrait utiliser la quasi-totalité de ses ressources pour repousser une invasion chinoise à Taiwan », Capital, 27 avril 2021. 17. Première guerre du Congo (1996-1997), entre le président zaïrois Mobutu Sese Seko, l’Angola et l’Ouganda, qui verra la victoire de Laurent- Désiré Kabila, créateur de la République démocratique du Congo ; et deuxième guerre du Congo (1998-2003) qui impliqua neuf pays africains et trente groupes armés..., ce qui en fait la plus grande guerre entre États en Afrique (« Grande Guerre africaine »), entre 200 000 environ et 4 millions de morts. 18. Guerre ethnique débutée en 1993, entre Hutus et Tutsis, qui, depuis le Rwanda, déborde au Kivu et oppose milices armées, soutenues par Mobutu, ex-Président du Zaïre (future RDC), et Tutsis rwandais et Ougandais soutenant Laurent-Désiré Kabila. Au Kivu s’affrontent sur divers fronts Hutus, Tutsis, forces pro-ougandaises et armée de Kinshasa. En 2001, L. – D. Kabila, assassiné, et remplacé par son fils, Joseph. La guerre prend fin en 2003. 19. Delphine Papin, Flavie Holzinger, Riccardo Pravettoni, « Du Mali au Burkina Faso, une spirale de violence », Le Monde, 23 juin 2019. 20. Données : Armed Conflict Location and Event Data project (ACLED). 21. Benjamin Roman, « Panorama des conflits dans le monde : quels risques géopolitiques futurs ? », Portail de l’IE, 18 juin 2020. 22. Sophie Landrin, Carrie Nooten, « Cachemire : Imran Khan brandit le risque d’une guerre nucléaire », Le Monde, 28 septembre 2019. 23. Métal rare utilisé notamment dans le secteur aéronautique. 24. Uotsurijima/Diaoyu Dao, Kita-Kojima/Bei Xiaodao, Minami-Kojima/Nan Xiaodao. 25. Selon l’Agence internationale de l’énergie, il y aurait entre 60 et 100 millions de barils de pétrole et entre 1 000 et 2 000 milliards de mètres cubes de gaz naturel aux alentours. Voir site de l’organisme ; www.aie.gov. 26. Pascal Dayez-Burgeon, « Dédiaboliser la Corée du Nord ? », Politique internationale, n o 140 – Été 2013. 27. Michael L. Ross, The Oil Curse. How Petroleum Wealth Shapes the Development of Nations, Paperback, 2012. CHAPITRE IV De l’ancienne à la nouvelle guerre froide ? « Nous avons des types d’armes prometteurs, absolument exclusifs [...], des systèmes de missiles qui ne volent pas sur une trajectoire balistique mais rasante, avec une vitesse hypersonique. Pour l’instant, personne n’a d’armes hypersoniques... » Vladimir Poutine Depuis la chute pacifique et l’éclatement de l’URSS, la Russie, pays où il existe un taux d’imposition forfaitaire de 13 % (flat tax), digne d’Andorre ou de Monaco, n’a plus rien à voir avec l’Union soviétique. Les menaces géopolitiques majeures pour le modèle capitaliste occidental et les démocraties se trouvent plutôt du côté de l’islamisme radical, de la Turquie postkémaliste néo-ottomane, des nouvelles mafias transnationales, des phénomènes de fractures ethnoreligieuses intranationales, et bien sûr du modèle antidémocratique chinois néomaoïste. Mais les pays de l’Alliance atlantique, États-Unis en tête, ne semblent pas avoir changé de logiciel géostratégique. Les États-Unis, l’UE et l’Otan ont donc continué à penser la Russie comme le clone monstrueux de l’Union soviétique, un ennemi majeur. Les États-Unis, l’Alliance atlantique et l’Union européenne – vassalisée depuis 1950 – ont étendu leur puissance vers l’Europe centrale et orientale, jusqu’aux pays baltes et aux Balkans, ce qui a été ressenti par la Russie comme une humiliation, car il s’agit de son ancienne zone d’influence du temps de la guerre froide. Or, en 1994, puis en 1997, le prédécesseur et parrain politique de Vladimir Poutine, Boris Eltsine, avait ratifié le Partenariat pour la paix de l’Otan, puis le partenariat Otan-Russie qui devaient permettre une coopération et tourner définitivement la page de la guerre froide. Il n’en était rien : les ingérences occidentales qui ont pris la forme d’interventions militaires directes en ex- Yougoslavie, en Irak ou en Libye, ou celles indirectes contre la Russie en Géorgie, en Tchétchénie, ou en Ukraine, sans oublier l’obsession américaine de renverser la dictature prosoviétique de Bachar al-Assad, ont dangereusement interrompu ce processus en poussant la Russie eltsinienne et poutinienne, à devenir un ennemi. Après l’Irak, la goutte d’eau qui fera déborder le vase sera le soutien américano-européen aux forces ukrainiennes antirusses entre 2004 (révolution orange) et 2013-2014 (seconde révolution ukrainienne ou Euromaïdan) puis aux forces révolutionnaires arabes islamistes tournées contre l’allié majeur de la Russie en Méditerranée arabe, la Syrie. Ici, comme en Crimée ukrainienne, la stratégie américaine de changements de régime visait ni plus ni moins à faire perdre à Moscou le contrôle de ses bases militaires stratégiques installées depuis des décennies à l’ouest de la Syrie (Tartous) et à Sébastopol, en Crimée, sans lesquelles la Russie perd son accès vital à la Méditerranée orientale et son statut de puissance maritime mondiale. La suite, ou plutôt la réaction, est connue : double intervention militaire russe spectaculaire en Syrie, pour sauver Bachar al-Assad de l’offensive des rebelles islamistes et djihadistes, puis en Crimée, avec l’annexion de celle-ci par la Russie, et ainsi qu’indirectement en Ukraine orientale (Donbass). Dans les deux cas, les Russes ont conservé leurs acquis stratégiques sur leurs flancs sud. Prétextant de la menace croissante russe dans le contexte de la guerre civile ukrainienne et de l’annexion de la Crimée, les États-Unis, en guerre géoénergétique avec la Russie pour l’approvisionnement en gaz de l’Europe (gaz russe versus gaz de schiste américain), firent adopter par l’ensemble des pays occidentaux des sanctions américaines et internationales contre la Russie, de ce fait poussée dans ses retranchements. À cet égard, les premières déclarations et décisions du président Joe Biden, pourtant supposé être plus mesuré que son prédécesseur Donald Trump, n’ont pas été dans le sens de l’amélioration des relations russo-américaines : après avoir qualifié (17 mars 2021) Vladimir Poutine de « meurtrier », Joe Biden a accusé la Russie d’essayer de continuer à influencer la politique intérieure américaine et il a non seulement renforcé les sanctions contre Moscou en mettant sur une liste noire trente-cinq personnes morales et physiques russes, mais aussi interdit aux entreprises et citoyens américains d’acquérir et acheter des bons du Trésor russe destinés à financer la dette de la Russie. Théoriquement, l’analyse officielle de l’Otan est qu’un pays peut intégrer l’Alliance s’il est stable et s’il peut apporter des ressources, synergies et forces supplémentaires, ce qui signifie que des pays ayant de graves contentieux territoriaux et conflits ouverts avec leurs voisins ne sont pas éligibles. Ceci explique pourquoi l’Ukraine et la Géorgie ont raté leurs premières tentatives d’intégration lors des sommets 2008, jusqu’avant la crise russo- géorgienne. En revanche, l’escalade russo-ukrainienne du printemps 2021 analysée plus haut montre l’évolution significative de l’Alliance sur ce sujet, puisque son secrétaire général, Jens Stoltenberg, tout en ne répondant pas positivement à l’intégration immédiate de l’Ukraine, n’a pas fermé la porte et a même plus précisément conditionné son intégration à la mise en place de réformes institutionnelles que les partenaires occidentaux de l’Ukraine exigent depuis bien longtemps. Le même raisonnement a été avancé par Emmanuel Macron au Président ukrainien Volodymyr Zelensky, lorsque ce dernier est venu demander à son homologue français son soutien à l’entrée dans l’Otan lors de la rencontre du 16 avril 2021. Le fait que l’Occident semble de plus en plus ouvert à une intégration de l’Ukraine à l’Alliance atlantique ne peut qu’envenimer ses relations déjà exécrables avec la Russie, et de ce fait mettre en danger la stabilité de cette zone postsoviétique et de l’ensemble de l’Europe. L’Europe, théâtre de guerre nucléaire entre États-Unis et Russie ? Certes, le scénario d’un conflit nucléaire Occident-Russie autour du dossier ukrainien ou d’autres est quasi impossible, compte tenu du principe de dissuasion d’une telle arme. Sur le plan stratégique, la situation est tout de même préoccupante : le 2 août 2019, après plus de vingt ans de discorde et de poussée américano-occidentale vers le pré carré russe, les États-Unis sont sortis du traité de désarmement relatif aux forces nucléaires de portée intermédiaire (INF), décision lourde de conséquences qui a incité la Russie à faire de même en réaction. Et en novembre 2019, le Pentagone a réaffirmé que le nucléaire pouvait être utilisé comme toute autre arme contre les objectifs militaires de l’ennemi. Des exercices annuels et des manœuvres navales de l’Alliance atlantique ont lieu depuis 2016 de façon de plus en plus intense, de la Baltique à la mer Noire. Des blindés américains paradent près de la Finlande, en Estonie, en Roumanie, en Bulgarie, et surtout en Pologne. Des exercices mobilisent six mille soldats de dix pays de l’Otan, des bombardiers, chasseurs et hélicoptères en zone balte. Entre 2000 et 2019, l’Alliance a inauguré en Roumanie et en Pologne des sites stratégiques de missiles antimissiles, des installations de radars en Turquie, puis des navires de guerre américains en Méditerranée. Depuis janvier 2021, les États-Unis et l’Alliance atlantique ont placé leurs troupes en état d’alerte renforcée après la reprise des combats en Ukraine et dénoncent une stratégie d’intimidation de la Russie. Le secrétaire général de l’Otan a réitéré son soutien total au camp ukrainien et au président Volodymyr Zelensky qui, selon les rumeurs, aurait préparé une offensive en vue de récupérer les territoires du Donbass occupés par des forces prorusses. Depuis le début de 2021, la Russie accuse l’armée ukrainienne d’avoir massivement bombardé des villages prorusses de l’Est ukrainien et Washington d’avoir envoyé des navires de guerre en mer Noire et des troupes à la frontière russe et dans la mer Baltique : 40 000 militaires et 15 000 pièces d’armement et véhicules, dont des avions stratégiques 1 . Cinq cents soldats américains supplémentaires ont également été positionnés en Allemagne en cas d’escalade. L’Ukraine et les États-Unis accusent en retour la Russie d’avoir déployé plus de 80 000 soldats en Crimée depuis 2014 et de préparer une offensive en cas de reprise des territoires prorusses par Kiev. En réponse à ce qu’elle analyse comme une menace majeure de la part de l’Otan, la Russie a effectué, le 14 avril 2021, des entraînements en tir d’artillerie en mer Noire puis a envoyé une partie de sa flotte ainsi que des hélicoptères de l’aviation navale. Pour les États-Unis et l’Otan, l’ennemi est plus que jamais la Russie. L’« Acte fondateur Otan-Russie », signé en 1997, qui engageait l’Alliance à ne pas déployer de forces supplémentaires dans les nouveaux pays membres de l’Alliance atlantique, est mort, du moins dans les faits. Avec l’élargissement de l’Otan aux frontières de la Russie, source d’une néoguerre froide, cette rupture de l’équilibre stratégique a achevé de pousser la Russie plus encore dans les bras de la Chine. Pour Moscou, l’installation d’un bouclier antimissile en Pologne et en République tchèque remet en cause sa dissuasion nucléaire à sa porte... Ce dispositif, certes annulé en 2009 par Barack Obama, sera remplacé par un autre système (Défense antimissiles balistiques de théâtre – TBMD) encore plus problématique pour la Russie. Face à cette remise en cause de sa capacité de frappe « en second » (principe de base de sa dissuasion nucléaire stratégique), la Russie a suspendu toute coopération au sein du Conseil Otan-Russie. L’annexion de la Crimée par la Russie en 2014 a servi de prétexte a posteriori à l’Otan pour justifier la protection stratégique de l’Europe face à ladite « menace russe ». En réaction, Moscou va déployer à son tour ses lanceurs mobiles du système sol-sol Iskander dans l’enclave de Kaliningrad. Vladimir Poutine a ainsi annoncé la mise au point par la Russie d’une panoplie de nouvelles armes stratégiques, toutes réputées quasiment impossibles à intercepter et capables de frapper en n’importe quel point du globe. L’Amérique a réussi à faire de l’Europe à nouveau le théâtre d’opération d’une « bataille nucléaire de l’avant » sur les frontières avec la Russie. Ce processus – entamé depuis les années 1992-1998-2003 – d’exclusion occidentale de la Russie, désignée comme l’ennemi suprême, permet en réalité de pérenniser la domination atlanto-américaine du continent européen et donc sa division. Nous sommes ainsi revenus à l’équivalent de la guerre froide, sans mur, cette fois-ci, mais bien pire sur le plan stratégique. Contrairement aux années 2003-2009, ce n’est plus le prétexte hypocrite de la menace iranienne qui justifie ce déploiement américain aux portes de la Russie, déjà poussée à bout par l’élargissement qui a précédé, mais une hypothétique menace russe qui nécessiterait de faire du territoire de l’UE lui-même le champ de bataille Russie-États-Unis... On est très loin du reset d’Obama annoncé initialement, comme Trump après lui, pour pacifier les relations russo-américaines. L’occasion manquée de l’alliance russo-occidentale (1999-2003) Pourtant, en 1990, la stratégie des pays de l’Alliance atlantique avait semblé aller dans le sens d’un rapprochement panoccidental ou russo-atlantique. Rappelons qu’après l’implosion de l’Union soviétique, la Russie ne cessa de se rapprocher de l’Otan, qui semblait tirer les leçons de la chute de l’ex-ennemi soviétique. Ainsi, en 1994, Moscou ratifia le programme du Partenariat pour la paix de l’Otan, une première. Puis en mai 1997, un accord de coopération mutuelle stipulant en préambule que les deux pays n’étaient plus des ennemis. Vinrent ensuite les intégrations d’ex-pays membres du pacte de Varsovie dans l’Otan puis dans l’UE, devenus indépendants après 1989, qui conforta même sa coopération avec les Occidentaux (exercices militaires communs, fréquentes consultations ; ouverture d’un point de transit de l’Alliance à Oulianovsk, en Russie, afin de favoriser l’acheminement de matériel vers le front afghan, etc.). Certes, la Russie n’était pas enchantée de l’extension sans fin vers l’est, mais les lignes rouges du Kosovo, de la Géorgie et de l’Ukraine n’avaient pas encore été franchies et les révolutions de velours puis la seconde guerre en Irak n’avaient pas encore produit leurs effets délétères. Andrei Kozyrev, l’ancien ministre des Affaires étrangères de Boris Eltsine, connu pour son occidentalisme passionnel, définissait ainsi sa doctrine et celle de Boris Eltsine à ce moment : « Prendre modèle sur les pays démocratiques avancés, être admis dans leur club sur un pied d’égalité, tout en restant digne et en gardant sa personnalité ; telle est notre conception. » Il envisageait de fusionner les structures militaires de la CEI et de l’Otan et espérait que la Russie intégrerait le Conseil de l’Europe et l’Union européenne. Au départ, la politique pro-occidentale d’Eltsine et de Kozyrev fut clairement appuyée par le peuple russe qui avait une excellente image de l’Occident, alors perçu comme une force amicale, alors qu’aujourd’hui, la tendance s’est nettement inversée 2 . Après la période Eltsine, l’ascension progressive de Vladimir Poutine fut au départ marquée par un fort prisme pro-européen et pro-occidental, puisque ce dernier commença sa carrière politique avec le clan des libéraux (pro- occidentaux) du maire de Saint-Pétersbourg, Anatoli Sobtchak. La chose est souvent oubliée : dès son arrivée au pouvoir (hiver 1999-2000), Vladimir Poutine ne cessa de multiplier les signes d’ouverture envers les États-Unis, essayant d’établir une alliance russo-occidentale, à l’opposé de l’image d’antioccidental primaire et de nostalgique de l’URSS que l’Occident a forgée de lui. Poutine voyait dans une libéralisation maximale de l’économie et dans sa débureaucratisation les clés de la renaissance et celui que la presse occidentale définit souvent comme un nostalgique de Staline a toujours été très critique à l’égard de l’héritage soviétique, dont il estime que « nous récoltons aujourd’hui les fruits amers ». C’est d’ailleurs ce même Poutine qui fit acte de candidature à l’OMC, et qui fut le premier dirigeant russe postsoviétique ayant affirmé que la Russie appartient à la culture européenne occidentale. Il n’a d’ailleurs jamais cessé de plaider en faveur d’une coopération plus étroite avec l’Union européenne. Quant aux relations russo-américaines, il a toujours répété qu’il ne choisira jamais de réactiver les facteurs de confrontation. De son côté, George W. Bush, alors moins moraliste et manichéen que les démocrates et les autres néocons, ne semblait pas avoir d’a priori négatifs envers le dirigeant russe qu’il reçut dans son ranch privé, fait assez rare et grande marque de proximité de sa part. En juillet 2001, lorsqu’il rencontra le Président russe, il fit savoir qu’il avait vu en Poutine « un homme qui pense que son avenir est avec l’Occident et non avec l’Orient et qui partage avec les États-Unis les mêmes préoccupations concernant la sécurité, notamment l’islamisme 3 ». Au lendemain des attentats du 11 septembre 2001, Vladimir Poutine fut le premier chef d’État qui appela le Président américain pour lui témoigner de sa forte solidarité avec le peuple américain, rappelant que la Russie avait elle aussi été victime depuis des années des attaques menées par des terroristes islamistes originaires de Tchétchénie. Lorsque George W. Bush lança sa campagne militaire contre le terrorisme, notamment avec l’intervention en Afghanistan, il chercha l’aide de la Russie, également préoccupée par l’influence du djihadisme international sur le conflit de Tchétchénie. Cette convergence conjoncturelle d’intérêts offrait une opportunité rare aux deux anciens adversaires de la guerre froide pour forger un partenariat stratégique panoccidental. Le 24 septembre 2001, le Président russe annonça un plan en quatre points pour soutenir la guerre américaine contre le terrorisme. Premièrement, le gouvernement russe s’engageait à partager les données de renseignements avec son homologue américain. Deuxièmement, il ouvrait l’espace aérien russe aux vols d’avions américains à destination de l’Afghanistan. Troisièmement, il promettait d’obtenir l’ouverture de l’espace aérien en Asie centrale pour les États-Unis. Quatrièmement, il s’agissait d’apporter une aide militaire et humanitaire à l’Alliance du Nord en Afghanistan qui était en train de combattre les talibans. Le politologue et ex-ambassadeur américain à Moscou (2012-2014), Michael McFaul, constate que même si la Russie n’était pas d’accord avec la doctrine américaine de l’axe du mal, elle partageait avec les États-Unis une vue plus traditionnelle d’utilisation de la force militaire. Rétrospectivement, on constate que la coopération américano-russe proposée initialement par Poutine ne fut pas égalitaire ni mutuellement bénéfique, car l’administration Bush se focalisa sur les questions purement militaires liées à l’Afghanistan dans le cadre d’une vision court-termiste de sa relation avec la Russie. La rupture stratégique des années 2003-2005 Comme l’a noté McFaul, pour évoluer vers une réelle alliance, cette relation stratégique aurait également dû revêtir un contenu intéressant pour le partenaire russe. À titre d’exemple, les États-Unis auraient pu appuyer l’adhésion de la Russie à l’OMC, ce qu’ils refusèrent jusqu’en 2012 ; établir une relation d’alliance plus formelle entre l’Otan et la Russie ; suspendre le boycott d’achat d’armes russes par les membres de l’Otan ; contribuer au rapprochement entre l’UE et la Russie ; continuer à travailler sur la réduction des missiles balistiques ; acheter des armes russes pour les envoyer à l’Alliance du Nord en Afghanistan ; préciser l’attitude américaine sur la Tchétchénie ; ou encore soutenir le développement des institutions plus démocratiques en Russie 4 . Cependant, ainsi que le note le journaliste américain Peter Baker 5 dans son livre consacré à la politique étrangère de George W. Bush, la Maison Blanche manqua largement cette opportunité en raison d’une stratégie incohérente et imprévisible. Au début de son premier mandat, Bush s’était certes fixé comme objectif de garder la Russie dans le camp occidental afin d’éviter un rapprochement avec la Chine, mais vers 2003-2004, la doctrine Bush évolua vers l’engagement (néoconservateur) d’en finir avec la tyrannie et les États voyous (rogue States) partout dans le monde. Concernant la Russie, cette nouvelle approche était déclinée à travers un objectif à terme de changement de régime à Moscou. Or, c’est à ce moment-là, au milieu des années 2000 – qui correspondait aussi à l’intervention anglo-américaine en Irak –, que Vladimir Poutine commença précisément à recentrer son pouvoir, à cesser de se montrer ouvert à une libéralisation appuyée depuis l’extérieur et à considérer de nouveau les États-Unis comme menaçants. Une nouvelle approche, plus confrontationnelle, émergea ainsi entre 2004 (révolution orange), et 2008, lorsque George W. Bush intensifia le soutien américain à l’adhésion de l’Ukraine et de la Géorgie à l’Otan. En bref, par cette provocation, en tout cas ressentie comme telle par Moscou, le Président américain rata complètement une occasion historique. Les relations russo-américaines se dégradèrent rapidement à partir de 2003, après trois années de lune de miel porteuses d’espoir. Apparemment, ces relations demeuraient hantées par l’esprit de la guerre froide, pendant laquelle l’Union soviétique était perçue comme une menace mortelle pour la civilisation occidentale et pour le monde. En 2000, Condoleezza Rice notait ainsi que « les États-Unis ont eu beaucoup de difficultés à s’adapter au monde d’après-la-guerre-froide et à concevoir une nouvelle grande stratégie pour remplacer l’endiguement de la menace soviétique 6 ». La guerre d’Irak (mars 2003) provoqua une réelle rupture stratégique entre la Russie et les États-Unis. Devenu plus européen, en février 2003, Vladimir Poutine se rendit à Berlin et à Paris, capitales qui s’étaient fortement opposées à l’intervention militaire américaine en Irak. L’opposition des deux poids lourds européens à l’approche hégémonique américaine poussa le Président russe à épouser des concepts gaullistes : le monde multipolaire et la lutte contre l’hégémonie, prises de position autant idéologiques que pragmatiques car la guerre d’Irak permit de s’opposer à l’hyperpuissance occidentale en s’alliant à d’autres États occidentaux. Moscou décidait ainsi de mettre en péril sa relation avec les États-Unis dans l’espoir de la compenser par le rapprochement avec l’Union européenne, mais cette dernière ne voulut jamais réellement poursuivre ce rapprochement dès lors qu’il n’était plus souhaité par Washington et par la direction de l’Otan, véritable pilote des orientations stratégiques de l’UE. La guerre d’Irak influença non seulement la relation russo-américaine, mais fit également changer radicalement la vision que Moscou avait de l’ordre international. L’impunité des États-Unis fit croire aux Russes que les plus forts pouvaient faire ce qu’ils voulaient sur la scène internationale. Tout ce qui s’est passé depuis lors, y compris le flirt avec les islamistes pendant le printemps arabe, la politique américaine en Libye et l’action des États-Unis en Syrie, prouve que la dernière superpuissance mène une stratégie excessive 7 . Il est vrai que les chaos irakien, libyen et syrien, consécutifs aux interventions militaires ou diplomatiques américano-occidentales, en ont fait la démonstration. En 2004, le soutien américain à la révolution orange élargit encore un peu plus les divergences entre les deux pays, tandis que le soutien des États-Unis à l’indépendance du Kosovo en 2008 sembla rendre la rupture russo-américaine irréversible. Après l’élargissement de l’Otan à de nombreux pays de l’Est devenus aussi membres de l’Union européenne, l’UE devint de facto une entité atlantiste sous la domination des intérêts américains. On assista à la reconstitution d’un impressionnant potentiel militaire en Pologne, qui se prépare quasi ouvertement depuis la crise ukrainienne à une guerre potentielle contre la Russie. D’autres nouveaux membres de l’Alliance (pays baltes, Bulgarie, Roumanie) se sont placés quant à eux sous le parapluie de l’Alliance qui y a ouvert depuis 2006 des bases aériennes, notamment ; Bezmer et Graf Ignatievo, puis un polygone militaire (Novo Selo). Les patrouilles d’avions militaires de l’Otan survolent désormais très régulièrement l’espace aérien des pays baltes en proximité immédiate des frontières russes, en raison de l’absence d’aviation militaire dans ces pays. Aujourd’hui, on ne peut que constater l’état déplorable des relations entre les deux pays. Dans ce contexte, les critiques américaines concernant l’état de la démocratie en Russie se sont multipliées, mais pas envers des régimes autoritaires islamiques comme le Qatar, l’Arabie saoudite, ou le Pakistan, parrains du djihadisme. Vladimir Poutine n’a jamais accepté le projet américain de déployer en Europe centrale et orientale un système de défense antimissile, au même titre que l’ingérence occidentale en Ukraine. Il a toujours répondu fermement en assurant que si les États-Unis sortent du traité ABM, la Russie sortira du système d’accords de limitation et de maîtrise des armements stratégiques, classiques, voire tactiques (chapitre VIII), et engagera une politique indépendante en matière de dissuasion nucléaire. D’après de nombreux stratèges polonais, baltes ou anglo-saxons, Vladimir Poutine aurait donc comme objectif proche d’envahir, après l’Ukraine, les pays baltes qui abritent d’importantes communautés russophones dans l’intention de contrer, la Grande-Bretagne, les États-Unis et leurs alliés baltes et polonais qui ne cessent de diffuser encore plus sérieusement ce type de scénarios apocalyptiques concernant la menace russe. La Russie, une menace plus grande que le terrorisme islamiste pour les atlantistes... Si l’on en juge par les déclarations officielles de responsables atlantistes, par les mouvements de troupes en direction du nord de l’Europe et de l’Europe orientale et aux moyens et stratégies déployés contre la Russie au détriment du Moyen-Orient et donc de la lutte contre la menace islamiste, tout se passe comme si le péril islamiste préoccupait moins les États-Unis que la Russie, « ennemi principal ». Ainsi, le général Joseph Dunford, chef d’état- major des armées américaines, avait déclaré, lors des auditions au Congrès dans le cadre de sa nomination, citant le cas ukrainien, que la Russie présentait « la plus grave menace à court terme pour la stabilité du monde entier 8 ». La Russie représente la « plus grande menace » pour la sécurité nationale des États-Unis, a confirmé Deborah James, la secrétaire des forces aériennes américaines, qui en conclut que « l’Amérique doit donc augmenter sa présence militaire en Europe ». Dans cette perspective de hiérarchisation de l’ennemi, privilégiant la menace russe sur le péril islamiste, la Pologne est bien évidemment toujours en première ligne. C’est ainsi que Witold Waszczykowski, le ministre polonais des Affaires étrangères (2015-2018), a fait écho à Deborah James en déclarant, lors de la conférence annuelle sur la sécurité Globsec, organisée le 15 avril 2016 à Bratislava (Slovaquie) : « De toute évidence, l’activité de la Russie est une sorte de menace existentielle parce que cette activité peut détruire des pays [...], nous avons aussi des menaces non existentielles comme le terrorisme, comme les grandes vagues de migrants 9 », mises ainsi au second plan. Dans la même logique d’alliance atlantico-islamique pour endiguer l’ennemi russe, Waszczykowski confirmait, à Ankara, le 20 avril 2016, que son pays est très favorable à une intégration rapide de la Turquie dans l’Union européenne et qu’il ne craint pas la suppression des visas pour les citoyens turcs, car la Turquie est « un des meilleurs atouts pour sécuriser le flanc est de l’OTAN face à la Russie ». La Pologne, qui joue comme jadis l’Angleterre le rôle de cheval de Troie des États-Unis dans l’Union, a subi des pressions américaines pour un soutien à la candidature turque (très souhaitée par les milieux anglo-saxons pour rendre l’UE ingouvernable et encore plus hétérogène) en échange d’installation de nouvelles bases américaines en Pologne. Le 2 février 2016, le secrétaire d’État Ashton Carter a clairement confirmé ce retour à la case départ stratégique de la guerre froide, et c’est dans ce contexte qu’est apparu le nouveau concept stratégique de Third Offset Strategy qui pose comme priorité de maintenir une supériorité militaire et technologique sur les Russes et les Chinois sur le long terme, l’idée étant de franchir un nouveau palier stratégique fondé sur le développement de systèmes d’intelligences artificielles, d’armes-robots, de nouveaux systèmes de brouillages des communications ennemies, etc. (voir Robert Work). Comme on l’a vu en Syrie ou même avant en Afghanistan, plutôt que de coopérer face à un ennemi commun islamiste et djihadiste qui menace autant les États-Unis, l’Union européenne que la Russie en tant que sociétés « mécréantes » à conquérir, les Occidentaux et les Russes ont au contraire renforcé leurs rivalités, s’espionnent et analysent leurs armes respectives dans l’optique d’une confrontation ultérieure 10 . Certes, il est vrai que, de son côté, le 31 décembre 2015, Vladimir Poutine a lui-même signé un document officiel sur la « stratégie de sécurité nationale de la Fédération de Russie » dans lequel les États-Unis sont clairement qualifiés de « menace pour la sécurité nationale ». Nous sommes donc revenus à l’époque de la guerre froide, et la stratégie des États-Unis et des pays membres de l’Otan et de l’UE y est pour beaucoup... Si les torts et visions diabolisantes sont partagés, force est de reconnaître que la partie qui a rompu les liens et mis fin au rapprochement est l’Occident. Sur les dossiers afghan et syrien, personne ne peut nier que si les Russes ont systématiquement proposé de coordonner et collaborer étroitement contre l’ennemi islamiste principal dans le cadre d’une vaste coalition panoccidentale ou euro-occidentale, ce sont les États-Unis qui ont toujours refusé pareil dispositif en accusant à chaque fois les Russes de défier l’Occident, de perpétrer un génocide en Tchétchénie, de frapper les « modérés » en Syrie ou de défendre la dictature d’Assad et d’aggraver la situation en Ukraine au lieu de l’améliorer. L’OCS, ou l’alliance « antihégémonique » russo-chinoise redoutée par Brzezinski Face aux puissances occidentales universalistes que sont l’Amérique et l’Europe de l’Ouest, la Russie postsoviétique et la Chine partagent la même philosophie des relations internationales fondées sur la souveraineté des États, la préservation de leurs zones d’influence respectives, ainsi que le refus de la théorie occidentale du droit d’ingérence humanitaire et de la démocratie libérale et moralisatrice à visée mondialiste. Les politiques de sanction (Irak, Serbie, Russie, Iran, Cuba, Corée du Nord, etc.), aussi contre-productives que souvent injustifiées, n’auront fait que conforter Moscou dans l’idée que l’Occident ne lui laisse d’autre choix que de se rapprocher de Pékin. On assiste ainsi, depuis le début des années 2000, à une convergence de plus en plus profonde des visions diplomatiques des deux grandes puissances créatrices de l’Organisation de coopération de Shanghai (OCS), dont sont membres aussi l’Ouzbékistan, l’Inde, le Pakistan, le Kirghizistan, le Tadjikistan, et probablement bientôt l’Iran (voir carte n o 3). Certes, l’OCS est composée, comme les Brics (Brésil, Russie, Inde, Chine, Afrique du Sud), d’États parfois ennemis entre eux (l’Inde et la Chine), mais outre que la Chine et la Russie, son noyau dur, sont des alliées stratégiques face à l’Otan et aux États-Unis, elle représente tout de même un ensemble multipolaire qui dispose de 38 % des ressources mondiales de gaz, de 20 % de celles en gaz, de 40 % du charbon, de 30 % de l’uranium de la planète et des deux armées les plus puissantes après les États-Unis, de surcroît nucléaires. De fait, face à l’unipolarité américaine, la Russie et la Chine défendent l’avènement d’un monde multipolaire, afin de contrer l’encerclement de leurs terres et mers par l’Otan, l’UE, les forces anglo-américaines et leurs alliés en Asie. Il est vrai que Moscou avait averti, dans les années 1990-2005, que toute tentative de faire basculer dans le camp de l’Otan l’Ukraine et la Géorgie (« plan Brzezinski », voir supra) serait un casus belli. On a d’ailleurs vu, entre 2003 et 2013, les conséquences dramatiques – pourtant prévisibles – de la politique des États-Unis, de l’Otan et de l’Union européenne de soutien aux dirigeants antirusses dans « l’étranger proche » de Moscou 11 . À la fin de sa vie, le concepteur même de la doctrine de l’endiguement de l’URSS, George Kennan 12 , déplorait l’obsession antirusse de l’Otan et des États-Unis, qui persistaient à traiter la Russie postsoviétique comme l’URSS en accentuant l’encerclement et les sanctions contre Moscou : « Étendre l’Otan vers l’est serait la pire erreur de la politique américaine de l’ère post-guerre froide... Les Russes vont réagir progressivement de manière particulièrement hostile et cela changera leur politique [...]. Cette expansion (de l’Otan) ferait se retourner les Pères fondateurs de notre pays dans leur tombe. » Les stratèges de Washington devront finir par comprendre que leur attitude vis-à-vis de Moscou et de Pékin a plus de chances d’accélérer, par réaction antihégémonique, la fin de l’unipolarité étatsunienne que de la prolonger, et que cela ne peut que renforcer l’avènement d’un nouveau désordre multipolaire tourné contre l’Amérique. Ce mouvement renforcera non seulement les liens entre la Chine, la Russie, l’Iran et l’Inde, mais il attirera aussi contre lui des pays du monde musulman et des acteurs souverainistes pas forcément antioccidentaux, pour qui l’hégémonie américaine est rédhibitoire, donnant ainsi corps à l’alliance antihégémonique que redoutait tant Zbigniew Brzezinski dans Le Grand Échiquier. Quant à la Chine, elle ne peut plus tolérer de se laisser enfermer par les Américains et leurs alliés dans les eaux du détroit de Formose, alors que le contrôle de ses places maritimes ou leur accès sont la condition sine qua non de son statut de puissance mondiale. D’où l’accroissement subit de ses forces navales, certes, très en deçà de celles de Washington, mais en plein développement. 1. « Ukraine : de nouvelles tensions entre la Russie, l’Otan et les États-Unis », LCI, 13 avril 2021. 2. Vyacheslav Nikonov, « La Russie et l’Occident : des illusions au désenchantement », Critique internationale, n o 12, p. 175-191. 3. Peggy Noonan, « A Chat in the Oval Office », The Wall Street Journal, 2 juin 2001. 4. Angela Stent et Lilia Shevtsova, « America, Russia and Europe: a Realignment? », ResearchGate, vol. 44, n o 4, p. 121-134. 5. Peter Baker, Days of Fire. Bush and Cheney in the White House, Washington, Anchor, 2013. 6. Condoleezza Rice, « Campaign 2000: Promoting the National Interest », Foreign Affairs, janvier 2000. 7. Fyodor Lukyanov, « What Russia Learned from the Iraq War », Al-Monitor, 18 mars 2013. 8. Laurent Lagneau, « Pour la Pologne, la Russie est plus menaçante que l’État islamique », Opex360, 16 avril 2016. 9. Voir http://lesmoutonsenrages.fr/2016/04/16/gros-danger-annonce-par-nos-medias-la-russie-est-une-menace-plus-serieuse-que- lei/#vLaxL0ch4ieC1LRV.99. 10. À titre d’exemple, en Syrie, un déserteur de l’armée syrienne et porte-parole des Forces démocratiques syriennes (FDS), Talal Silo, a révélé comment les États-Unis ont interdit au groupe FDS et donc aux combattants kurdes toute collaboration ou entraînement avec les Russes en Syrie. 11. Voir Alexandre Del Valle, Les Vrais Ennemis de l’Occident. Du rejet de la Russie à l’islamisation des sociétés ouvertes, Paris, L’Artilleur, 2016. 12. Thomas Friedman, éditorialiste du New York Times, relata son entretien avec George Kennan, en 1999, soit un an avant l’arrivée de Vladimir Poutine au Kremlin, à propos de l’expansion de l’Otan en Europe. CHAPITRE V ... ou désordre mondial multipolaire ? « L’affrontement de tête entre Washington et Pékin, qui structure la nouvelle donne stratégique planétaire, va bon train sur le front commercial, mais aussi sur tous les autres terrains (militaire, sécuritaire, diplomatique, normatif, politique, numérique, spatial, etc.). La planète entière est devenue le terrain de jeu de ce pugilat géant [...] : l’Europe bien sûr, l’Eurasie, mais aussi l’Afrique [...], l’Amérique latine, la zone indopacifique [...] et naturellement le Moyen-Orient. » Caroline Galacteros Depuis les années 2000 et la remise en question sino-russe de l’unipolarisme américano-atlantiste (OCS, voir cartes n os 2 et 3) le monde vit une transition historique vers la multipolarité. Celle-ci est caractérisée non seulement par le retour de la Realpolitik, des souverainismes identitaires, des empires civilisationnels régionaux, mais aussi par un processus global de désoccidentalisation de la mondialisation, redevenue un phénomène neutre découplé de son idéologisation mondialiste. Le nouveau monde multipolaire qui vient, apparemment désordonné, sera composé d’espaces ou « zones géocivilisationnelles » en compétition constante et à géométrie variable. Désordre non pas en vue du pire, qui n’est jamais certain, mais parce que les règles de fonctionnement de ce nouveau monde en gestation n’ont pas encore été fixées. Pour l’heure, ce qui est certain, c’est que la mondialisation n’est plus maîtrisée par l’Occident et devient surtout un champ de rivalités géostratégiques et d’hypercompétition économique de plus en plus agressives accentuées par la crise économique mondiale et la crise sanitaire. En 1987, Paul Kennedy avait expliqué, comme Duroselle, que « toute superpuissance à la recherche d’une domination globale finira par la perdre ». Un constat également émis, on l’a vu, par Graham Allison avec son « piège de Thucydide ». La raison majeure est l’attribution ruineuse de ressources économiques et financières à un pouvoir militaire contre-productif. Il est vrai que les interventions américaines de l’après-guerre froide ont coûté des milliers de milliards de dollars. Depuis 2001, la « guerre contre le terrorisme » (war on terror) en Afghanistan aurait coûté à elle seule 850 milliards de dollars de 2001 à 2017 (sans résultats), et celle en Irak (1990-2003) près de 2 000 milliards. Dans le même temps, maintes infrastructures sont restées en retard aux États-Unis (trains et lignes électriques ou téléphoniques non enterrées) et les jeunes endettés pour leurs études ainsi que les pauvres incapables de payer des soins corrects se révoltent car tout cet argent aurait pu contribuer à rendre leur vie moins rude. Si l’Amérique veut continuer à jouer un rôle majeur en faveur de la stabilité et retrouver son pouvoir de séduction, largement perdu à cause de son arrogance, pour paraphraser Huntington, elle devra accepter la constitution de sphères d’influence régionales souveraines autour de la Chine, de la Russie, de l’Inde, de la Turquie, du Brésil, de l’Égypte, de l’Afrique du Sud, notamment, ce qui ne l’empêchera pas de protéger ses propres zones d’influence en Amérique du Nord et du Sud, et de maintenir des liens étroits avec l’Europe. Sa politique étrangère devra renoncer à l’impérialisme de ses juridictions extraterritoriales et devra se recentrer sur la promotion d’un équilibre global du pouvoir, ce qui signifie l’abandon des politiques contre-productives de regime change. Mais rien n’indique que cette tendance, paradoxalement bien plus incarnée par les électeurs de Donald Trump que par ceux des démocrates, prisonniers de leur moralisme interventionniste, l’emportera. Fractures internes et externes D’une manière générale, on constate à l’échelle des États-Unis, qui ont été au bord de la guerre civile autour de la présidence Trump et du mouvement des Black Lives Matter, ainsi qu’à l’échelle mondiale, une détérioration globale du statu quo, un déclin progressif des structures établies depuis 1945 : intensification des rivalités entre grandes puissances ; montée du nationalisme, des intégrismes et des populismes face au néo-impérialisme moraliste des élites occidentales mondialisées ; migrations incontrôlées ; tentations de « démondialisation » ; explosion des inégalités ; questions sanitaires et environnementales. Dans le même temps, les Nations unies ne parviennent pas à se renouveler : le Conseil de sécurité permanent est toujours composé des mêmes cinq grands vainqueurs de la Seconde Guerre mondiale et refuse de partager ce club de happy few avec de nouveaux grands acteurs, comme l’Inde ou le Brésil. On peut donc s’attendre dans les années à venir à un discrédit croissant du multilatéralisme cher aux adeptes de l’école idéaliste des relations internationales, et à un retour en grâce de la Realpolitik, et du souverainisme, déjà en action dans la quasi-totalité du monde non occidental, c’est-à-dire hors l’aire euro-américaine industrialisée-atlantiste. La période de transition géostratégique qui, après la fin du monde bipolaire (1990), a vu le triomphe éphémère de l’unipolarité américaine et qui évolue progressivement vers un multipolarisme pourrait être appelée « nouveau désordre mondial » ou « marche vers un multilatéralisme asymétrique 1 ». Le monde n’appartiendra plus à personne... Comme l’écrit Charles Kupchan, dans La Fin de l’ère américaine 2 , le monde qui vient n’appartiendra à personne, car il sera à la fois multipolaire, politiquement pluriel et fera cohabiter une hyperpuissance américaine lassée de son fardeau de l’hégémonie mondiale et les acteurs émergents et réémergents d’un monde polycentrique. Certes, la montée de la Chine pourrait déboucher sur un duopole sino-américain ou une néoguerre froide entre les deux rivaux dans une sorte de bipolarité, mais le monde ne redeviendra pas bipolaire pour autant car la Chine s’accommode du polycentrisme et n’a de prétention hégémonique (mais non prosélyte comme l’Occident) que dans sa zone d’influence asiatique. Contrairement à l’URSS, elle ne cherche nullement à répandre son modèle politique communiste ou civilisationnel sino-confucéen aux autres pôles. Pour Kupchan, l’internationalisme libéral qui a porté la politique américaine tout au long de la guerre froide s’essouffle. Les États-Unis, après plusieurs stratégies successives (containment, roll back, détente, puis unilatéralisme) pendant la guerre froide et durant la décennie et demie qui a suivi, n’ont plus de Grand Strategy (Luttwak) aujourd’hui, après avoir triomphé du communisme. Le « moment unipolaire » des États-Unis est donc terminé et la transition, inexorable. Depuis quelques années, aux États-Unis, un courant de pensée a d’ailleurs émergé parmi les universitaires américains selon lequel l’Amérique devrait accepter les sphères d’influence respectives des nouveaux acteurs, c’est-à-dire un partage de la puissance mondiale avec d’autres grandes puissances, avec une référence particulière à la Chine, à l’Inde et à la Russie. Le nombre de grandes puissances va être plus élevé qu’il ne l’a jamais été par le passé : on trouve tout d’abord le « club des sept empires » (Giannulli), à savoir les États-Unis, l’Union européenne, le Japon, le Brésil, la Russie, l’Inde et la Chine, qui représentent à eux seuls plus de 50 % de la population mondiale et 75 % du produit intérieur brut (PIB) mondial, puis viennent dans un second cercle de puissances de moindre poids l’Afrique du Sud, la Colombie, l’Indonésie, l’Égypte, l’Iran, la Turquie, chacune de ces puissances évoluant dans leur « étranger proche » sur la base de leurs propres valeurs et intérêts, portant ainsi une vision spécifique. La Chine, deuxième puissance du monde, va continuer de tout faire, dans tous les domaines, pour dépasser les États-Unis, même si cela va s’avérer long et plus difficile dans le domaine militaire et celui du soft power culturel mondial. La politique étrangère et de défense des États-Unis va se concentrer de ce fait sur l’impératif de contrer non seulement la Chine, mais aussi les « alliances antihégémoniques » (Brzezinski) susceptibles de gêner sa domination stratégique mondiale, comme l’Organisation de coopération de Shanghai (OCS). Washington craint également le rapprochement Iran-Chine qui s’est traduit par la signature, en mars 2021, d’un accord commercial de 400 milliards de dollars pour une période de vingt-cinq ans entre les deux pays. Cet accord stratégique surnommé Lion-Dragon Deal s’est également matérialisé par des ventes d’armes et des manœuvres navales communes aux côtés de la Russie. Cette nouvelle proximité sino-iranienne rebat les cartes au Moyen-Orient, en passe de devenir un nouveau terrain de confrontation entre la Chine et les Occidentaux. Le duel sino-américain va donc de plus en plus prendre la forme d’une confrontation ouverte, mais les interdépendances économiques entre eux vont probablement empêcher que se reproduise un scénario identique à celui de la guerre froide. L’objectif immédiat des États-Unis sera de freiner au maximum les efforts de la Chine pour prendre l’avantage dans plusieurs domaines, ceci au moyen d’une guerre commerciale, monétaire, technologique (guerre de la 5G, voir infra) et stratégique (forces militaires, Quad [Quadrilateral Security Dialogue] voir carte n o 3), mais aussi en contrant le projet chinois d’établir une position hégémonique en Asie. Cette bataille se déroule d’ailleurs déjà en mer de Chine, autour de Taiwan et de la Corée du Sud, des Paracels/Spratleys et autres îles (Senkaku, etc., voir chapitre XII). Les Chinois, eux, vont donc tout faire pour éloigner les États-Unis de la zone (d’où la reprise en main de Hong Kong, les menaces sur Taiwan et la stratégie du « collier de perles »). La stratégie du collier de perles Cette expression désigne l’installation, par la marine de guerre chinoise, de points d’appui (les « perles ») tout le long de sa voie d’approvisionnement maritime vers le Moyen-Orient. Cela inclut la construction, l’achat ou la location, sur le long terme, d’installations portuaires et aériennes (échelonnées jusqu’en Afrique), destinées à protéger ses intérêts commerciaux d’est en ouest : de la mer de Chine méridionale au golfe de Bengale, à la mer d’Arabie et la mer Rouge. Sans surprise, l’Inde rivale y voit un encerclement, notamment à partir des ports au Pakistan, grand allié de la Chine, au Sri Lanka, au Bangladesh, ou encore au Myanmar et aux Seychelles, pays « retournés » ou acquis ces dernières années à Pékin. Il s’agit en fait d’une chaîne de bases militaires chinoises et de ports étrangers dans lesquels la marine militaire chinoise a acquis des installations portuaires dans le cadre de projets d’infrastructures financées par Pékin 3 . L’idée est d’étendre son contrôle sur toute la mer de Chine méridionale et orientale, 80 % des importations énergétiques chinoises y transitant. Pékin rachète dans ce même contexte des ports, en Corée du Nord, au Cambodge (voir infra) et convoite même un port en Islande pour réduire les trajets de Shanghai à Hambourg de six mille quatre cents kilomètres durant l’été ; sans oublier le golfe d’Aden-Djibouti, et alentour, pour escorter ses navires à travers cette zone infestée de pirates. Outsiders, émergents, Brics, acteurs de la désoccidentalisation du monde Depuis le retour politique des non-alignés, l’émergence de l’OCS et des Brics (voir cartes n os 2 et 3), la montée en puissance de l’Indonésie, de la Corée du Sud, de la Malaisie, de la Turquie et d’autres pays émergents, l’économie mondiale multipolaire a évolué si rapidement que certains pays en développement se sont mués en puissances géoéconomiques. La catégorie générique de tiers-monde apparaît désormais désuète, du moins sur le plan économique. Si l’Europe et les États-Unis semblent menacés par la désagrégation économique et l’apparition de nouvelles frontières intérieures, d’autres zones sont en passe d’apparaître sous l’impulsion d’échanges commerciaux, financiers et humains intensifiés entre les États qui les constituent. D’après le Fonds monétaire international (FMI), les BRICS (Brésil, Russie, Inde, Chine, Afrique du Sud, acronyme créé par Goldman Sachs en 2001) comptent 40 % de la population mondiale et assureraient 50 % de la croissance mondiale. Leur place dans l’économie mondiale croît fortement : 16 % du PIB mondial en 2001, 27 % en 2015 et, d’après des estimations, 40 % en 2025. Ils affichent un PIB nominal équivalent à celui des 27 de l’UE réunis. Forts de ce constat, certains prospectivistes de Goldman Sach évoquent l’apparition possible d’un « E7 », sigle d’un « G7 à l’envers », qui regrouperait 7 puissances mondiales émergentes (Chine, Inde, Brésil, Russie, Mexique, Indonésie, Turquie). La crise économique et financière a par ailleurs accentué le phénomène de rééquilibrage économique et géopolitique mondial en faveur d’une participation plus importante des pays non occidentaux aux affaires du monde : la part de l’Asie dans l’économie mondiale est passée de 7 % en 1980 à 30 % en 2020, tandis que les marchés d’Asie représentent aujourd’hui 34 % de la capitalisation boursière mondiale (devant les États-Unis, 29 %, et l’Europe 24 %). La part du monde en développement dans le PIB mondial en termes de parité de pouvoir d’achat est passée de 33,7 % en 1980 à 45 % en 2019. Le Brésil, la Russie, l’Inde, la Chine et l’Afrique du Sud forment au total un ensemble humain de plus de 3 milliards d’habitants, soit 40 % de l’humanité, et ils ont une surface de presque 40 millions de km². Ils pourraient être bientôt rejoints par la Turquie, l’Indonésie, la Colombie, le Chili ou le Mexique (BRIICCTMS). Lors du sommet de Brasilia du 15 avril 2010, les 4 principaux pays-continents des Bric (alors dénommés ainsi) ont pour la première fois remis en cause l’ordre économique et financier mondial hérité des accords de Breton Woods, appelant à la réforme de la Banque mondiale et du FMI. Le 15 juillet 2014, à l’occasion de leur sixième sommet annuel à Fortaleza, au Brésil, les Brics (alors déjà augmentés du s de South Africa) ont signé un accord créant une banque de développement (NBD) et une réserve de change commune 4 dont les fonds de dotations ont « financé trente-cinq projets d’investissements d’une valeur supérieure à 9 milliards de dollars 5 ». Plus gênant pour l’imperium américain : ces puissances remettent en cause la suprématie planétaire du dollar, appelant à constituer un système financier international alternatif au nom de leur droit d’utiliser comme bon leur semble leurs monnaies nationales pour l’énergie et d’autres transactions. Cette idée séduit bien sûr au premier chef Russes et Chinois, qui échangent déjà leurs hydrocarbures en yuans, mais aussi l’Inde et nombre de pays africains. Quant à la Turquie, elle a signé un accord avec la Russie pour échanger également hors du dollar, ce que la Chine fait déjà avec les pays africains qui ont abandonné eux-mêmes le franc CFA. La désoccidentalisation est en marche... En juin 2019, dans le cadre d’un sommet des Brics, en marge du G20, au Japon, à Osaka, Vladimir Poutine a appelé les émergents à stabiliser les cours de leurs devises nationales en échangeant le plus possible avec elles au lieu du dollar. Et la Banque centrale russe a suggéré, en décembre 2017, de créer une monnaie virtuelle commune à la fois aux Brics et aux États de l’Union économique eurasienne 6 . En 2018, lorsque la direction de Society for Worldwide Interbank Financial Telecommunication (Swift), sous pression américaine, a déconnecté de son système la Banque centrale d’Iran et d’autres organismes financiers iraniens visés par les sanctions américaines liées aux lois extraterritoriales, l’Inde, la Russie et la Chine ont décidé de se débarrasser à terme de la dépendance envers Swift en reliant le système de messagerie financière (PSSA) au système chinois de paiements internationaux (CIPS) et au projet d’une structure indienne indépendante 7 . D’autres puissances régionales majeures, comme l’Iran, ont également un très fort potentiel et même des velléités néo-impériales. L’Iran a considérablement augmenté sa profondeur stratégique au Moyen et Proche-Orient depuis les années 1980, mais également dans d’autres zones du monde, comme l’Amérique latine, l’Asie centrale et la Turquie. Il est un membre observateur de l’OCS, il renforce sa coopération avec l’axe Chine-Russie et les Brics, et seules la politique de sanctions drastiques lancées par les États-Unis et la nature cleptocratique et totalitaire islamiste du régime ont empêché ce grand pays de poursuivre sa croissance économique, géopolitique et technologique déjà visible à l’époque du shah, mais que les rivaux de Téhéran, Arabie saoudite en tête, craignent par-dessus tout. Puissance nucléaire potentielle, la Turquie postkémaliste et national-islamiste est quant à elle déjà la première puissance du Moyen-Orient, devant l’Iran et l’Arabie saoudite, et même la treizième puissance mondiale depuis 2018. Non seulement elle revendique son entrée dans le club nucléaire et abrite des ogives nucléaires américaines sur son sol, mais elle se dote, grâce à son partenariat avec Moscou, de centrales nucléaires et diversifie ses capacités militaires, comme on le voit dans le rapprochement avec l’OCS et l’achat du système de missiles S400 russes qui permet à Ankara de devenir stratégiquement plus autonome vis-à-vis de l’Alliance atlantique. Enfin, pour reprendre la dichotomie « ventres durs/ventres mous » du monde, chère à Pierre Marie Gallois, le pôle africain, avec ses 150 millions d’habitants en 1930 devenus 2 milliards dans trente ans, ne participe qu’à hauteur de 3 % aux échanges mondiaux et reste englué dans les cercles vicieux de la surnatalité, du clanisme, de la corruption endémique, de la mauvaise gouvernance, de l’analphabétisme et des guerres et tensions ethnoreligieuses et tribales dans des États postcoloniaux dont les frontières ont été fort mal découpées. Le rêve de Chinafrique ou même Chindiafrique demeure hélas un doux mythe : le décrochage des pays du Sahel est stupéfiant, cumulant problématiques de sous-développement, de réchauffement climatique, de séparatisme et de terrorisme islamiste, et il s’agit là de la seule région au monde où la pauvreté a continué de progresser... L’Afrique demeure globalement une source de convoitises pour les matières premières et les terres agraires au profit des multinationales, pas seulement occidentales, d’ailleurs, et des acteurs du monde polycentrique, Chine, Inde, États-Unis, France, Turquie, et même Russie. Inexorable montée en puissance de l’hégémon chinois En 1980, le produit intérieur brut (PIB) chinois équivalait à 7 % du PIB américain, contre 61 % en 2015, et sera bientôt équivalent. Une tendance quasi certaine : le FMI prévoit pour la Chine une croissance d’au moins 8 % en 2022, quand l’Europe peinera à sortir de la crise la plus catastrophique depuis 1929. Rappelons tout de même que la Chine, devenue l’usine du monde avec la complicité des oligarchies économiques occidentales, a désormais plus de travailleurs dans l’industrie que tous les pays de l’OCDE réunis 8 . Pékin a par ailleurs acheté 1 200 milliards de dollars de bons du Trésor américain indispensables au budget des États-Unis, et acquiert des actifs financiers et physiques partout dans le monde. Longtemps considérée comme un simple pays d’accueil, la Chine est désormais exportatrice nette d’IDE 9 : les flux sortants sont ainsi passés de 7 à 200 milliards de dollars entre 2001 et 2018. Dans une logique de guerre économique et financière, la Chine refuse de remettre en cause le taux de change de sa monnaie et elle exige d’entrer dans le club des « Économies de marché » pour s’affranchir de toute contrainte à l’exportation, tout en pillant allègrement les technologies de ses partenaires et en pratiquant en « non-retour » une forme de protectionnisme et de concurrence déloyale fondée sur le dumping social et le non-respect des critères de l’OMC et de l’OIT... Outre l’OCS et les Brics, évoqués plus haut, les instruments de ce processus de montée en puissance chinoise sont tout d’abord la Belt and Road Initiative (BRI), littéralement « ceinture et route », appelée dans la presse « nouvelles routes de la soie ». Il s’agit d’un gigantesque plan de construction de réseaux d’infrastructures terrestres, maritimes, énergétiques et communicationnels, véritable pilier de la mondialisation chinoise déployé sur 6 corridors d’Eurasie. Qualifiée de plus grand projet d’investissements depuis le plan Marshall, la BRI répond à la quête géopolitique de « Rêve chinois global 10 » lancé en 2013 par Xi Jinping lorsqu’il est arrivé au pouvoir. Visant à accroître la place de la Chine au niveau international 11 , les « nouvelles routes de la soie » englobent 65 pays asiatiques et européens, représentant près de 55 % du PIB, 70 % de la population et 75 % des réserves énergétiques du monde, pour une durée d’investissement de trente-cinq ans... Le coût estimé des premiers projets est de 900 milliards de dollars et les prêts associés, alloués par la Chine pour les infrastructures à venir dans les différents pays traversés, atteignent 8 trillions de dollars ! Patriots vs McWorldists ? À la lumière des fractures internes de plus en plus problématiques dans les pays occidentaux, prisonniers de systèmes court-termistes (en Europe populiste vs sociaux-démocrates et aux États-Unis trumpistes Patriots vs démocrates « multiculturalistes »), qui ont failli, durant l’été 2020 et en janvier 2021, conduire les États-Unis à la guerre civile, la Chine et d’autres puissances considèrent que des élections libres et équitables ne peuvent plus garantir un gouvernement efficace et que l’idéologie libérale-libertaire McWorld est foncièrement subversive et anarchiste. Pékin considère le « scénario Mad Max » qui prédestine les démocraties libérales occidentales au chaos comme une opportunité historique pour remplir le vide. Le pouvoir chinois compte ainsi démontrer que, dans le monde complexe du XXI e siècle, la paix et la prospérité sont mieux servies lorsque des gouvernements centraux forts affrontent les défis mondiaux... Comme dans les années 1930, la démocratie occidentale n’est plus le seul modèle, et sur ce point, Samuel Huntington, dans la conclusion de son Choc des civilisations, ne s’est pas trompé en annonçant la fin du pouvoir d’attraction de l’Occident. « L’hégémonie mondiale américaine ne fonctionnera plus, écrit Robert W. Merry, l’exceptionnalisme américain est une vanité nationale ridiculisée par les événements [...] nos idéaux sont bons pour nous et valent la peine de se battre pour eux, mais ils ne sont pas universels et ne devraient pas être imposés à d’autres peuples dans d’autres pays 12 . » Cette remarque peut être désagréable pour les oreilles des missionnaires pandémocratiques d’Occident, mais cette musique est en vogue dans le nouveau monde multipolaire, c’est-à-dire dans près de 90 % de l’Humanité, si l’on reprend le chiffre de Samuel Huntington qui évaluait le poids mondial des « élites blanches mondialisées » (ou « club de Davos ») à 12 % de l’Humanité... Contrairement aux expectatives occidentalistes de Fukuyama, et à la différence de la Russie postsoviétique de Boris Eltsine, la Chine ne s’est pas du tout démocratisée et libéralisée sur le plan politique, et ne s’est ouverte qu’à son avantage, sur le plan économique et commercial. Elle développe ainsi un ordre mondial alternatif régi par la Realpolitik, fondé sur la dictature absolue du parti léniniste-maoïste combinée à un néoconfucianisme et à un capitalisme mercantiliste de conquête. Étrange mélange, certes, presque incompréhensible pour un Occidental cartésien, mais alliage fort opportun et efficace pour un confucéen-taoïste habitué à mélanger les contraires (« yin et yang »)... Pour le pouvoir de Pékin, la mondialisation constitue de ce fait une formidable opportunité pour consolider son hégémonie, son nationalisme impérial, et non pour fonder une suprasociété mondiale prosélyte, comme l’entend l’Occident. Ce projet est perçu comme utopique, contre-productif et menaçant. Dans le court terme, la Chine, qui a besoin de vendre ses produits au monde entier et donc aux États-Unis, ne veut surtout pas d’une confrontation directe, et concéderait même à Washington, dans une logique pragmatique, une ouverture politique et économique en échange de l’endiguement de la marine américaine en mer de Chine. Son but premier est d’acquérir la puissance mondiale nécessaire pour gagner une guerre sans avoir à la livrer, à la lumière de Sun Tzu ou du jeu de go. Et cette puissance a déjà été en partie acquise par l’instrumentalisation de la mondialisation... D’évidence, le nouveau (dés)ordre mondial ne s’annonce pas libéral : la plupart des acteurs de ce monde en voie de multipolarisation rejettent les valeurs libérales-libertaires et démocratiques promues par les démocrates américains et les sociaux-démocrates européens. « Au grand dam de l’Occident, écrit Caroline Galacteros, Pékin propose une synthèse efficace et séduisante pour bien des pays. C’est du dirigisme, c’est une pratique autoritaire du pouvoir, c’est une restriction manifeste des “droits de l’homme”. Mais au lieu de crier à la dictature, nous ferions mieux d’observer cette synthèse très attentivement et d’analyser sa force d’attraction 13 . » Un appel au réalisme. L’Europe : « impuissance volontaire » et dindon de la farce de la mondialisation ? À l’inverse, la puissance européenne semble être dupe de la mondialisation, idéologiquement assimilée au « mondialisme », avec la difficulté qui en découle de défendre le principe de souveraineté, qu’il soit national ou supranational, délégitimé en lui-même par McWorld et Bruxelles. Certes, le PIB global des vingt-sept pays européens représente 25 % de la richesse mondiale. Globalement, l’UE est un partenaire économique majeur pour l’ensemble du monde. Son secteur secondaire n’a pas totalement disparu, même si les délocalisations ont porté un coup fatal à des pans entiers de l’économie. Par la plupart des critères de puissance – taille du marché, monnaie unique, main-d’œuvre hautement qualifiée, gouvernements démocratiques stables et bloc commercial unifié – de ses pays membres, l’Union pourrait acquérir un poids sur la scène internationale, mais le vieillissement de sa population et la diminution de la main-d’œuvre dans la plupart des pays auront un impact négatif durable sur un continent désindustrialisé qui risque de se paupériser progressivement et de « sortir de l’Histoire » 14 . Certes, sa présence industrielle est encore forte dans des domaines sensibles, comme la chimie, certaines industries lourdes, l’ingénierie industrielle, les énergies alternatives, en plus de l’automobile et des machines-outils, et elle demeure, au niveau des échanges intracommunautaires, le leader du commerce international. Mais pas forcément pour longtemps. Car le déséquilibre avec les pays émergents à bas coût de main-d’œuvre et/ou à monnaie sous-évaluée s’accentuant, l’UE doit se protéger contre la concurrence déloyale en matière de commerce international et se détacher de l’angélisme en mettant en place une réciprocité dans le domaine des marchés publics. L’UE serait bien inspirée, pour ne plus être le dindon de la farce, d’instaurer l’équivalent du Buy American Act américain, qui contraint d’affecter les fonds publics américains à des entreprises américaines. Un tel Buy European Act aurait par exemple permis d’interdire à la Pologne d’acheter des avions militaires américains plutôt qu’européens, et éviterait les achats trop fréquents de matériels américains par les États européens membres de l’Otan. L’Europe, prisonnière de son propre mythe universaliste, qui s’affiche comme le continent de la non-identité, des droits de l’homme, de la social-démocratie, a comme pire ennemi sa propre volonté d’impuissance et sa mauvaise conscience, en plus de sa démographie déclinante. En fait, si tant est qu’elle devienne un jour un acteur géopolitique, elle est le seul qui a renoncé à afficher une identité, à définir des frontières, et a renoncé à la volonté de puissance. Un objet « géopolitique non identifié » et postcivilisationnel La grande majorité des pays de l’Union européenne dépensant entre 1 et 2 % de leur PIB dans le domaine militaire, le budget européen de la défense équivaudrait théoriquement à 290 milliards de dollars, ce qui en ferait potentiellement le deuxième budget mondial derrière les États-Unis (732 milliards de dollars), et devant la Chine (178 milliards). Mais cela n’est qu’une projection car, en réalité, l’UE n’a ni stratégie, ni défense et armée propres, ni même une politique étrangère unie, mais 27 intérêts nationaux souvent divergents... Le véritable ordre de placement situe la Chine juste derrière les États-Unis, bien devant sa concurrente, l’Inde (71 milliards), puis la Russie (65,1), l’Arabie saoudite (61,9) et la France (51). Outre les empires étatsunien, turco-islamique et chinois, qui la prennent en tenailles et convoitent ses richesses et son patrimoine uniques, l’Europe, démographiquement déclinante et psychologiquement complexée, est la seule civilisation au monde qui a remplacé toute appartenance identitaire par des valeurs humanitaires, démocratiques et libérales-libertaires. Celles-ci sont d’ailleurs vues comme des antivaleurs postidentitaires par les autres civilisations et nations, même démocratiques, comme le Japon, l’Inde, etc., qui demeurent patriotes et qui assument fièrement des politiques de puissance 15 et de civilisation. Le fait que l’UE, protégée par l’Otan, donc vassale des États-Unis, amoindrisse progressivement les souverainetés nationales de ses pays membres depuis les années 1990 16 la place en situation d’apesanteur stratégique. Loin de prendre le chemin de devenir un acteur géostratégique, alors qu’elle le pourrait si une unité de vue et une volonté existaient entre États membres, elle demeure en fait un no man’s land géopolitique. Pour les acteurs du reste du monde, Chine, États-Unis, Russie, Turquie, elle apparaît selon les uns comme un objet de dérision – Kissinger demandait d’ailleurs : « Europe, quel numéro de téléphone » ? – et selon les autres comme une belle proie affaiblie donc à convoiter... L’Union européenne est aujourd’hui une organisation hybride : un Ogni, un objet géopolitique non identifié : elle n’est ni un État, ni une fédération, ni même une confédération, mais une organisation internationale très divisée et hétérogène, unie en apparence seulement par une idéologie sociale-démocrate universaliste et une économie de marché, qui s’applique à elle-même des règles de limitation des souverainetés, de répression des identités nationales, d’ingénuité géoéconomique, de strict respect de la concurrence, de protection des travailleurs et de l’environnement ou de multiculturalisme, que les autres acteurs du monde ne s’appliquent pas à eux-mêmes, mais exigent opportunément d’elle, dans l’intention de la conquérir. Bref, elle agit de façon objective en dindon de la farce d’une mondialisation que tous les autres acteurs conçoivent comme un immense champ de concurrence et de ce fait comme un levier d’extension de leurs propres puissances et non comme un partage de souverainetés ou un projet de « village global »... Ce constat confirme l’observation que nous faisait partager dans les années 1990-2000 Pierre Marie Gallois, qui craignait que le continent ouest-européen devienne celui de l’impuissance et de la désouverainisation car l’Europe ne peut pas, pour des raisons historiques et idéologiques, acquérir au niveau supranational la souveraineté qu’elle fait perdre aux États membres au niveau national. Rejet de l’occidentalisation et de la domination américaine Les nouveaux dispositifs géopolitiques mis en œuvre depuis la fin de la guerre froide par les partisans d’un nouvel ordre international polycentrique, émancipés de l’hégémonie de l’Occident et des États-Unis, donc en quête de « désoccidentalisation », appartiennent à deux grands groupes : premièrement, les groupes d’États qui s’opposent à l’Occident, combattent ses valeurs et sa civilisation ; deuxièmement, ceux qui ne sont pas forcément antioccidentaux mais qui veulent un monde multipolaire fondé sur le respect de la souveraineté des États maîtres de leurs zones d’action géopolitique, économique et stratégique respectives. Comme l’explique le sociologue suisse Jean Ziegler, « la haine de l’Occident, cette passion irréductible, habite aujourd’hui la grande majorité des peuples du Sud. Elle agit comme une force mobilisatrice puissante ». D’après cette représentation, la simple évocation récurrente des droits de l’homme par des pays occidentaux pour justifier des sanctions internationales contre des dictatures du tiers-monde ou des pays accusés de massacrer des minorités ou de poursuivre un programme secret d’acquisition de l’arme nucléaire (Iran, Corée du Nord) est perçue comme un nouvel hégémonisme et motive la montée du ressentiment envers un Occident qui aurait d’autant moins de leçons de morale à donner qu’il colonisa, exploita et conquit tant de peuples dans le passé. D’après Ziegler, cette haine antioccidentale paralyse les Nations unies : l’Assemblée générale de l’ONU est d’ores et déjà composée en grande majorité de pays du Sud et émergents (Afrique, Asie du Sud, Amérique latine, monde islamique-OCI, OCS, Brics, etc.), qui contestent l’unipolarité du monde, alors que l’organe décisionnel stratégique (les cinq États membres permanents du Conseil de sécurité) demeure dominé par des États vainqueurs de la Seconde Guerre mondiale (États-Unis, France, Grande-Bretagne, Russie, Chine) qui refusent pour l’heure de revoir cette composition qui ne reflète pourtant plus du tout l’état du monde dans sa pluralité ni l’émergence de nouveaux acteurs stratégiques clés du Sud, comme l’Inde, le Brésil ou l’Afrique du Sud. Tant à la conférence antioccidentale de l’ONU organisée à Durban, en 2000 puis en 2009 (« Durban II »), qu’au Conseil des droits de l’homme des Nations unies à Genève ou à l’Assemblée générale des Nations unies, à New York, on constate la radicalisation d’un front antioccidental, rappelant à la fois l’expérience de la Tricontinentale et des non-alignés, et unissant, contre Israël, les États-Unis, et les pays industriels démocratiques des États aussi différents que l’Égypte, le Pakistan, Cuba, la Bolivie, le Venezuela, les États membres des groupes africains, arabes, musulmans (OCI) et latino-américains, la Corée du Nord, la Chine ou la Russie (Brics, OCS, États non-alignés). C’est notamment par ce type d’accord informel conclu entre pays opposés à l’Occident que la Chine a pu jusqu’à aujourd’hui échapper à toute condamnation globale – par l’Assemblée générale des Nations unies – des persécutions dont sont victimes les indépendantistes tibétains depuis l’annexion de cette région par la Chine ou les Ouïgours musulmans turcophones du Xinjiang 17 . D’une manière générale, Washington et l’UE parviennent de moins en moins à imposer leurs choix aux Nations unies : les propositions des États-Unis sont rejetées par la majorité de l’Assemblée générale, et la baisse du nombre d’États suivant l’Amérique s’observe d’année en année. Monde multipolaire ou polycentrique En raison de la taille considérable des populations de la Chine et de l’Inde, respectivement 1,4 milliard et 1,3 milliard, leur niveau de vie n’a pas besoin de se rapprocher de ceux des Occidentaux pour que ces pays deviennent des puissances économiques et géostratégiques majeures. Quant au Brésil, il pourrait bientôt dépasser presque tous les pays européens, sauf les trois plus grands. L’économie indonésienne, qui connaît un très rapide développement démographique, économique et technologique, tout comme celle du Viêtnam et de la Malaisie, pourraient également bientôt se rapprocher des économies des pays européens, ce qui est déjà le cas pour le Chili et la Colombie. Le Japon est confronté à une crise de vieillissement sévère qui pourrait nuire à sa reprise économique à plus long terme, mais il sera également mis au défi d’évaluer son statut et son rôle régional. Tokyo devra peut-être choisir entre équilibrer ou faire marche commune avec la Chine. La Russie a le potentiel de renforcer son rôle international en raison de sa position de grand exportateur de pétrole et de gaz. Elle est toutefois confrontée elle aussi à une grave crise démographique résultant de faibles taux de natalité, de soins médicaux insuffisants et d’une situation de sida potentiellement explosive, sans oublier le fait, grave pour une puissance contemporaine, qu’elle ne produit et ne vend rien d’autre, ou presque, que des armes, des avions de combat et des énergies fossiles. Au sud, elle borde la région instable du Caucase et d’Asie centrale, dont les troubles – extrémisme musulman, et conflits endémiques – continueront à l’impacter. Alors que ces facteurs sociaux et politiques limitent la possibilité pour la Russie de continuer à être un acteur mondial majeur, Moscou est susceptible d’être un partenaire important pour la Chine ou l’Inde. Enfin, à terme, ces puissances arrivistes – et peut-être d’autres, comme la Turquie, le Mexique, le Nigeria – ont le potentiel de rendre obsolètes les anciennes catégories de l’Est et de l’Ouest, du Nord et du Sud, alignées et non- alignées, développées et en développement. Désoccidentalisation de la mondialisation marchande et technologique Les États-Unis verront leur position de puissance relative s’éroder, même s’ils resteront encore longtemps le pays le plus puissant dans toutes les dimensions du pouvoir. Les plus grands avantages de la mondialisation profiteront aux pays et aux groupes qui peuvent accéder aux nouvelles technologies et seront généralement définis en termes d’investissement et à l’échelle mondiale – que ceux-ci soient acquis grâce à la recherche fondamentale d’un pays ou auprès de leaders technologiques. La Chine et l’Inde sont en pole position pour devenir des chefs de file technologiques, et même les pays les plus pauvres pourront tirer parti de technologies prolifiques et bon marché pour alimenter leur propre développement. La prochaine révolution attendue de la haute technologie, impliquant la convergence des nanotechnologies, des biotechnologies, de l’information et des matériaux (voir chapitre XI), pourrait encore renforcer les perspectives de la Chine et de l’Inde. Les deux pays investissent dans la recherche fondamentale dans ces domaines et sont bien placés pour être des leaders dans des secteurs clés. L’Europe risque de glisser alors derrière l’Asie, faute d’investissements et de budgets R&D suffisants. Dans l’avenir proche, les principales entreprises opérant dans l’arène mondiale seront plus diversifiées, tant en taille qu’en origine, plus asiatiques et de moins en moins occidentales et a fortiori européennes. Elles seront plus souvent basées dans des pays comme la Chine, l’Inde, le Brésil, la Corée du Sud. Alors que l’Amérique du Nord, le Japon et l’Europe pourraient continuer collectivement à dominer les institutions politiques et financières internationales, d’ici 2030, la mondialisation sera de plus en plus assimilée, dans l’esprit populaire, à une Asie émergente qui remplacera l’américanisation et l’occidentalisation façon McWorld. La région Asie, nouveau phare du monde Une zone asiatique opposant les ennemis héréditaires chinois, japonais, sud-coréens et vietnamiens semble se dessiner. Indépendamment de leurs rivalités géopolitiques et identitaires profondes, ces contrées, situées dans la nouvelle zone « d’économie-monde », ont tous les atouts pour déclasser l’ancien pivot ouest-européen et occidentalo-américain dans le futur : méthodes de travail similaires, sens du collectif extrêmement poussé, respect des organisations de type hiérarchique, sens de l’effort, culte du travail, gouvernance efficace, permettent de surmonter les préjugés nationaux et les cicatrices de l’Histoire. Dans ce contexte de commerce horizontal évoqué plus haut, mais qui ne concerne pas que les Brics, entre nouveaux acteurs du monde polycentrique, il est clair que, malgré la Covid-19, bien mieux gérée et surmontée en Asie qu’en Occident, les économies asiatiques vont continuer à croître, tout comme le commerce intra-asiatique en général. Le degré d’intégration du système asiatique dans l’économie mondiale continuera d’augmenter, et la guerre des États-Unis contre la 5G chinoise ne dissuadera pas le reste du monde et des pays européens d’adopter des technologies chinoises qui concurrenceront de plus en plus les Gafam et autres multinationales américaines. La Chine et la zone Asean 18 resteront toujours des acteurs clés du commerce intra-asiatique, d’autant plus que le rebond de ces marchés s’est amorcé dès 2021, avec la reprise de la demande chinoise de biens et la meilleure gestion de la crise sanitaire. En outre, l’industrie manufacturière en Chine et dans l’Asean offre toujours des conditions économiques attractives non seulement pour les entreprises asiatiques, mais aussi pour celles des États-Unis et d’Europe qui continueront à y investir, malgré les belles déclarations de relocalisations. En s’adaptant à la numérisation du commerce et de la logistique et en interagissant davantage au niveau régional, les économies asiatiques peuvent encore faire mieux que celles du monde entier et ceci pour longtemps. Enfin, contrairement aux attentes, une « américanisation » massive des productions jadis trop concentrées en Chine n’est pas attendue dans les années qui viennent, car les grandes firmes transnationales, loin de se conformer aux demandes politiques de relocalisation, jettent leur dévolu sur d’autres pays asiatiques où les salaires sont inférieurs à ceux pratiqués en Chine, mais dont les régimes sont favorables à Washington (Bangladesh, Viêtnam, Inde). En 2021, l’Asie, dans sa globalité, va générer plus de 50 % de l’ensemble du PIB mondial (20 % en 1980). Le 15 novembre 2020, suite au retrait américain de l’accord de partenariat transpacifique (TPP) voulu par Donald Trump en 2017, qui a ravi la Chine, cette dernière a signé avec 14 pays d’Asie-Pacifique (les 10 pays de l’Asean, le Japon, la Corée du Sud, l’Australie et la Nouvelle-Zélande, voir cartes n os 3 et 4) le Partenariat régional économique global (Regional Comprehensive Economic Partnership, RCEP), nouvelle zone de libre-échange qui rassemble plus de 30 % de la population mondiale, qui va diminuer les tarifs douaniers de 90 %, et qui prévoit une croissance des PIB des pays membres de 0,2 %. Cette intégration régionale Asie-Pacifique confirme le découplage entre intérêts économiques et axes stratégiques : nombre d’États du RCEP, comme le Japon, l’Australie ou le Viêtnam, sont hostiles à Pékin, mais la force d’attraction de l’économie chinoise est irrésistible. Le RCEP incite les entreprises étrangères à implanter dans cet espace périphérique de la Chine le maximum d’unités de production pour bénéficier de tarifs douaniers privilégiés et, ainsi, rester compétitives dans la région. La Chine va ainsi asseoir encore son influence économique et industrielle sur toute l’Asie, en déployant de nouvelles chaînes de production en Asie du Sud-Est, sanctuarisant de ce fait sa puissance industrielle et commerciale et contestant le réseau d’alliances militaires et économiques des États-Unis par une stratégie économico-financière de contre-encerclement asymétrique, qui va de pair avec la stratégie du collier de perles et l’initiative BRI... L’intégration de pays industrialisés et proches des États-Unis sur les plans industriel, économique et militaire (Japon, Corée du Sud, Australie et Nouvelle-Zélande) à l’orbite chinoise contredit considérablement les objectifs américains du paradigme « Indo-pacifique » (Free and Open Indo-Pacific) et de la coopération entre le Japon, l’Inde, l’Australie et la Nouvelle-Zélande, face à l’expansionnisme chinois. La question qui se pose pour les Occidentaux à long terme est de savoir si cette nouvelle pax asiatica- economica ne va pas se retourner contre eux, de la même façon que les traités de Vienne et de Berlin avaient uni objectivement les Européens, pourtant divisés, contre le reste du monde avec la colonisation et l’impérialisme... Quelles pourraient être les prochaines cibles de la zone Asie ? La Sibérie russe convoitée, Taiwan appelée, selon l’Oncle Xi, à rejoindre de gré ou de force la mère patrie, le Japon, tôt ou tard contraint de se « réasiatiser » et se désaméricaniser, les Philippines ou la Thaïlande, l’Australie-Pacifique, convoitée par Pékin et vue en Asie comme une anomalie-excroissance européenne allogène ? Pour contrer l’expansion chinoise dans la zone, les États-Unis et leurs alliés comptent notamment sur le QUAD (Quadrilateral Security Dialogue, voir carte n o 3), un forum stratégique informel créé en 2004 composé de l’Inde, du Japon, de l’Australie et de l’Amérique, et dont le premier exercice militaire coordonné a eu lieu fin 2019. Déjà, en 2005, la secrétaire d’État Condoleezza Rice, dans un discours prononcé à l’université Sophia de Tokyo, avait soutenu la nécessité d’alliances en Asie (avec une référence spécifique à l’Inde, la Corée du Sud et le Japon) afin d’empêcher la Chine de grandir « sans laisse » (« sans attaches »). Dans ce contexte, et face à la menace chinoise commune, l’Inde est sortie de son ancienne position de non- alignement. Comme l’Australie, le Japon ou le Viêtnam, l’Inde craint l’expansion chinoise et se rapproche des États- Unis, tout en demeurant membre des Brics et proche de la Russie et de l’OCS. Elle développe ses propres liens économiques, militaires, diplomatiques et zones de libre-échange avec l’Asie du Sud-Est, le Japon et l’Australie. Outre les accords militaires avec le Népal et économiques avec le Japon, l’Inde compte sur l’organisation des pays d’Asie du Sud et du Sud-Est créée dans le cadre des accords Bimstec 19 – qui réunissent le Bangladesh, l’Inde, le Myanmar, le Sri Lanka, la Thaïlande, le Bhoutan et le Népal – et sur l’union économique de l’Asie du Sud. Même si elle ne ferme pas totalement la porte, à terme, au RCEP, dans une logique de diversification et de développement économique (fameux découplage évoqué supra). En conclusion, le scénario le plus réaliste est qu’après la pandémie, l’affrontement politico-économique entre la Chine et les États-Unis s’intensifiera, avec un probable renforcement de la position chinoise dans la région, sans que l’on puisse exclure des répercussions militaires, compte tenu de l’existence dans cette zone de frictions multiples (problème nord-coréen ; question de Taiwan ; « dilemme de Malacca »). Tout cela contredit-il notre annonce d’un monde en voie de multipolarisation et signifie-t-il un retour à un bipolarisme, cette fois-ci non plus russo-américain mais sino-américain ? Pas forcément. Le monde deviendra de toute façon de plus en plus multipolaire, mais dans le même temps, les deux hyperpuissances sino-américaines s’affronteront directement et indirectement, politiquement, idéologiquement, commercialement, et même technologiquement, dans un contexte éminemment polycentrique. Pour reprendre une expression chère aux théoriciens des relations internationales, le décalage des rapports de force résultant de la transition du pouvoir et du resserrement de la confrontation entre les deux grandes puissances pourrait inciter les alliés de Washington à remplacer la stratégie du containment par celle du bandwagoning. À l’opposé du balancing, ce concept fait référence au fait, pour des États faibles, de rejoindre un État plus fort ou une coalition. 1. Partage du pouvoir déséquilibré entre acteurs géostratégiques de premier plan (États-Unis, Chine) et de moindre importance mais régionalement puissants (Russie, Allemagne, Inde, Japon, Brésil, Indonésie, Afrique du Sud, Turquie). 2. Charles Kupchan, The End of the American Era. US Foreign Policy and the Geopolitics of the Twenty-First Century, New York, Knopf, 2002. 3. Base navale de Yulin, sur l’île de Hainan, bases aériennes de Sansha (îles Paracels), de Zhubi, Meiji et Yougshu (Spratleys), à Sihanoukville (Cambodge), à Kyaukpyu, à Sittwe (Myanmar), au Chittagong (Bangladesh), à Hambantota (Sri Lanka), à Gwadar (Pakistan), à Doraleh et Obock (Djibouti) et à Port-Soudan. 4. Doté de 100 milliards de dollars, dont 41 versés par la Chine, 18 par l’Inde, le Brésil et la Russie, et 5 par l’Afrique du Sud, ce fonds, opérationnel depuis 2015, devrait permettre à ses membres de se protéger en cas de tempête sur leurs devises, comme celle déclenchée mi-2013 après le changement de politique monétaire américaine. 5. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 6. UEEA : Arménie, Biélorussie, Russie, Kazakhstan et Kirghizistan. 7. Swift est un système international qui fournit des services de messagerie standardisée et de transfert interbancaire ainsi que des interfaces à plus de 10 800 institutions dans 200 pays. 8. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 9. Investissements directs à l’étranger. 10. On peut citer aussi la Banque asiatique d’investissement dans les infrastructures (BAII), avec laquelle Pékin veut concurrencer le FMI et la Banque mondiale, ou le Regional Comprehensive Economic Partnership (RCEP, voir infra). 11. La BRI englobe tous les niveaux de connectivité : commercial (baisse des droits de douane, contrats de gré à gré), financières (prêts), humain (main-d’œuvre, formation) et construction d’immenses infrastructures (portuaire, routière, énergétique, communication, etc.). 12. Robert W. Merry, Sands of Empire. Missionary Zeal, American Foreign Policy, and the Hazards of Global Ambition, New York, Simon & Schuster, 302 pp. 13. Alexandre Del Valle, « Entretien avec Caroline Galacteros : Les grands défis et enjeux géostratégiques de 2021... et du monde multipolaire plein d’incertitudes qui vient », Atlantico, 22 janvier 2021. 14. Voir Pierre Marie Gallois, L’Heure fatale de l’Occident, Lausanne/Paris, L’Âge de l’Homme, 2004 ; et Gallois, La France sort-elle de l’histoire ? Superpuissances et déclin national, Paris, L’Âge d’Homme, 158p. 15. Le doublement de la population africaine d’ici à 2050 va exacerber le problème des réfugiés économiques. 16. Maastricht, Euro, Schengen ; 60 % des règles nationales issues des décisions de la Commission de Bruxelles, progression du principe de décisions à la majorité au détriment de l’unanimité, etc. 17. Jean Ziegler, La Haine de l’Occident, Paris, Albin Michel, 2008, p. 14, p. 13-14. 18. L’accord de libre-échange de l’Asean, signé le 28 janvier 1992 à Singapour entre les pays membres de l’Association des nations de l’Asie du Sud-Est, est entré en vigueur en 2003. 19. Bay of Bengal Initiative for MultiSectoral Technical and Economic Cooperation. CHAPITRE VI Géopolitique linguistique : le français vecteur multipolaire ? « L’anglais menace le français et la diversité même des langues [...]. Posséder les mots et les diffuser, c’est posséder la pensée 1 . Le français, à la différence de l’anglais, n’a pas de vision dominante mondiale [...], la promotion du français, je le répète, n’a pas pour but une mondialisation à son bénéfice. Il a pour but un autre choix, qui est celui de la diversité. » Claude Hagège, linguiste français Dans les années 1990 et surtout 2000, les échanges d’informations ont connu une amplification sans précédent grâce à la généralisation de l’anglais comme langue de travail et de socialisation dans les zones touchées par la métropolisation, dont il est devenu la lingua franca, avec la numérisation de l’information, l’ordinateur individuel, Internet et le GSM, puis grâce à l’émergence d’une deuxième génération de fournisseurs de services numériques : les Gafam. Depuis cette dernière phase de la mondialisation digitalisée, fruit de McWorld, l’hégémonie de la langue anglo-américaine semble s’imposer partout, bien que certains pôles linguistiques et civilisationnels offrent une résistance, notamment le mandarin, l’espagnol, le portugais, l’arabe et, bien sûr, le français. D’après les spécialistes, le monde contemporain recenserait plus de 6 000 langues ! Mais leur « poids », a fortiori géopolitique, est naturellement très variable. Seulement une trentaine de langues dites « majeures » domineraient la planète. Encore faut-il, d’ores et déjà, lever quelques ambiguïtés quant au dénombrement plus ou moins précis des différents locuteurs. En 2018, certains instituts, notamment anglo-saxons, établissaient des hiérarchies en prenant en compte la « langue maternelle » et la « langue seconde ». La synthèse de ces hiérarchies aboutissait au classement (certes approximatif) suivant, pour les langues maternelles : 1) mandarin : 921 millions de locuteurs ; 2) espagnol : 463 millions ; 3) anglais : 370 millions ; 4) hindi : 342 millions ; 5) arabe : 250 millions ; 6) bengali : 228 millions ; 7) portugais : 227 millions ; 8) indonésien : 200 millions ; 9) russe : 153 millions ; 10) japonais : 80 millions. Cependant, si l’on ne raisonne pas seulement en nombre de locuteurs de langue maternelle mais de langues les plus parlées en prenant en compte la « langue maternelle » et la « langue seconde », on arrive à un classement bien différent 2 : 1) anglais : 1 268 millions ; 2) mandarin : 1 120 ; 3) hindi : 637 4) espagnol : 538 ; 5) français : 277 ; 6) arabe (standard) : 274 ; 7) bengali : 265 ; 8) russe : 258 ; 9) portugais : 252 ; 10) indonésien : 199. Si l’ONU recense officiellement six langues de travail (l’anglais, le français, le russe, le chinois, l’arabe et l’espagnol), la quasi-totalité des grandes organisations internationales ne sont réellement concernées que par l’anglais et le français. Ces deux vecteurs sont les seuls à être de facto présents sur les cinq continents. Eux seuls disposent véritablement du statut international, un statut capital dans la compétition économique, politique et, a fortiori, culturelle qui agite le globe à l’heure de la mondialisation. À l’image du système bipolaire sécrété au plan géopolitique par l’après-Yalta et qui vécut jusqu’à l’effondrement de l’URSS, on peut parler aujourd’hui, sur le plan linguistique, de la pérennisation d’un partage du monde, entre la langue de Shakespeare (ou plutôt celle de l’Oncle Sam !) d’une part – celle de la mondialisation dangereuse, qui efface les identités au profit d’un village mondial anglophone – et la langue de Molière, d’autre part, qui aurait dû continuer à être un vecteur de résistance à McWorld et de promotion d’un modèle multipolaire, le français résistant paradoxalement presque plus au Québec que dans la mère patrie française où les Français semblent avoir honte de leur héritage et de leurs traditions, lorsqu’ils plébiscitent McDonald’s, le blue-jeans, et le fast fashion pour se fondre dans ces millions de consommateurs anonymes que l’Oncle Sam rend dépendants à travers le monde. L’emprise de l’anglo-américain Idiome de McWorld, véhicule privilégié des échanges internationaux et socle du soft power américain avec plus d’un milliard et demi de locuteurs, l’anglais écrase donc la planète linguistique, tant au plan quantitatif que qualitatif. Il est la langue maternelle au Royaume-Uni, aux États-Unis, au Canada, en Irlande, en Australie, en Nouvelle-Zélande, en Afrique du Sud, et la langue seconde dans des nations au gabarit impressionnant comme l’Union indienne, le Pakistan ou le Nigeria. En 2017, les chiffres généralement de l’ordre de 380 millions de locuteurs « langue maternelle », de 620 millions « langue seconde » et plus de 600 millions « langue étrangère » confirment cette hégémonie linguistique... Héritage de l’Empire britannique (Commonwealth), et plus récemment de l’impact économique et politique de la superpuissance étatsunienne, mais aussi de son soft power et de son industrie musicale et télévisuelle, en plus d’être la langue de l’informatique et du business, l’anglais et son avatar anglo-américain constituent l’outil primordial de la communication internationale, des échanges commerciaux aux transferts de technologie, en passant par les systèmes audiovisuels, sans oublier les revues scientifiques et universitaires internationales et les grandes écoles qui imposent les normes américaines. Véhicule politique et commercial, l’impérialisme anglo-américain se traduit aussi par un processus, maintes fois dénoncé (tout particulièrement du côté de Paris), d’« invasion culturelle ». Outre la culture, l’anglais est devenu le vecteur quasi exclusif du monde scientifique. La passivité, voire la résignation, des scientifiques de langue française à son égard est devenue monnaie courante. Une publication dans une revue aussi prestigieuse que Nature ne peut se faire que par le canal de l’anglais. Les classements des centres de recherche universitaires, qui font la part belle, et pour cause, aux institutions anglo-saxonnes, s’appuient d’abord sur les travaux publiés en anglais. En 1988, l’Académie des sciences française décidait de l’emploi de l’anglais dans ses comptes-rendus : reconnaissant le rôle essentiel de l’anglais dans les communications scientifiques internationales, spécialement dans les sciences, l’Académie décidait de donner une place beaucoup plus importante à l’anglais en favorisant les auteurs acceptant de donner leurs propositions de contributions via une abridged english version. Et pour la seule année 2017, on a recensé dans l’enceinte de la vénérable Sorbonne huit colloques et conférences internationaux se déroulant exclusivement en anglais ! Richelieu, rénovateur de l’antique maison, a dû se retourner dans sa tombe... Dès 1990, l’Aupelf s’inquiétait : sur l’ensemble des publications scientifiques dans le monde, 65 % étaient rédigées en anglais, 12 % en russe et 10 % en français. En 2012, les pourcentages étaient passés à 70 %, 13 % et 9 %... Pire, peut-être, en changeant d’échelle, au Québec, siège de l’Organisation internationale de la francophonie (voir infra), 70 % des articles publiés par les scientifiques québécois l’étaient en langue anglaise en 1970... et plus de 85 % en 2012... L’affrontement entre l’anglophonie et la francophonie est particulièrement visible en Afrique de l’Ouest et centrale, où certains pays comme le Rwanda sont passés subitement à l’anglais. Les Tutsis, traditionnellement antifrançais et anglophones, sont devenus la pièce maîtresse de la diplomatie américaine au Rwanda comme dans d’autres pays de la région où ils sont prépondérants. Ce n’est pas non plus un hasard si Laurent-Désiré Kabila, ex- président de la République démocratique du Congo, qui avait renversé Mobutu avec l’aide américaine, inscrivit en priorité dans son programme culturel le remplacement du français par l’anglais comme première langue étrangère. En Afrique noire, la lutte contre la francophonie est également un puissant outil d’islamisation, la francophonie étant assimilée à l’héritage colonial et chrétien. La politique d’islamisation menée par l’Arabie saoudite, le Qatar et le Koweït se traduit d’ailleurs systématiquement, en Afrique, sur le plan culturel, par une éviction de l’influence française, belge ou portugaise au profit de l’anglophonie. Partout, les islamistes, qui veulent rompre tout lien avec les anciennes puissances coloniales, surtout francophones, préfèrent l’anglais standard McWorld au français associé à la laïcité et aux Lumières antireligieuses. C’est en partie en jouant sur ce tableau anticolonialiste que Washington sape partout les positions françaises, comme on a pu le voir dans la région des Grands Lacs, plus particulièrement au Zaïre. Dans d’autres cieux, notamment au Canada, les francophones du Québec ont quant à eux le plus grand mal à résister à la progression de l’anglophonie. Certes, le Québec a adopté des lois contre la progression de termes « franglais » et défend souvent mieux le français que ses « cousins » de France ou de Belgique. Toutefois, ce farouche combat en faveur de la francophonie québécoise n’a pas réussi à maintenir la langue française partout, puisque dans la seconde grande ville du Québec, Montréal, de nombreuses familles anglophones refusent de se plier à la francophonie et tentent même, portées par la mondialisation anglo-saxonne et la proximité des États-Unis, d’y faire progresser l’anglophonie tandis que le français n’est plus connu que de rares élites et de quelques vieillards au Viêtnam, dans l’ex-Indochine française comme en Pologne ou en Roumanie. Le paradoxe québécois La géopolitique de la langue française en Amérique du Nord illustre néanmoins la vitalité de la langue de Molière. Le français est vu généralement non seulement comme une enclave linguistique qui a réussi à se maintenir et à se développer au milieu d’un océan anglo-saxon, mais aussi comme une résistance à la domination linguistique de l’anglais que l’on constate aujourd’hui en France, dont la langue s’anglicise rapidement. L’Histoire de la Nouvelle-France canadienne commence très tôt au début du XVII e siècle lorsqu’une poignée de colons s’installe dans ces contrées peu adaptées à la présence humaine. Or, les quelques colons français (quelques milliers seulement) s’occupent surtout du commerce des fourrures, établissent des relations constructives avec des tribus indiennes voisines, à la différence des Britanniques des 13 colonies, et très vite, une mini-civilisation française se constitue autour du golfe du fleuve Saint-Laurent, des villes de Québec, de Trois-Rivières, et de Montréal. En 1763, après une longue série de guerres, la France cède définitivement sa colonie d’outre-Atlantique à la Grande-Bretagne. Il est curieux de noter que le roi français, lorsqu’on lui offrait le choix d’abandonner soit les Antilles, soit la Nouvelle- France, décide de garder les deux îles sucrières de Guadeloupe et de Martinique qu’il considère comme plus importantes sur le plan économique que « quelques arpents de neige » au Canada français. Ces Français oubliés du Québec comptent alors seulement 60 000 âmes, devenus deux cent cinquante ans plus tard plus de 8 millions. Aujourd’hui, cette province est le véritable moteur économique du Canada et sa partie la plus développée marquée par une forte capacité d’innovation, de flexibilité et de productivité. Comment ceci a-t-il été possible ? Il convient ici de revenir sur un paradoxe : les Québécois ont préservé une forte identité nationale alors même que leurs frères français ont tout fait pour l’effacer – et en même temps cette société a réussi à s’insérer dans l’écosystème productif de l’Amérique du Nord. Le Québec constitue un prolongement vers le nord du cluster productif et financier de la côte est des États-Unis. En même temps, le Québec représente une porte d’entrée pour les capitaux européens en raison de ses liens avec le Vieux Continent. Les Québécois francophones ont préservé pendant des siècles une très forte natalité grâce au modèle rural qui prédominait au Canada français, mais ils ont aussi préservé la langue de leurs ailleux en résistant farouchement à tout emprunt linguistique à leur voisin. Nous pensons que cette lutte identitaire est à l’origine du phénomène que l’on observe aujourd’hui au Québec et qui consiste en ce que le développement économique et l’innovation ne peuvent avoir lieu que dans une société fière de ses racines, de son histoire, qui résiste à la mondialisation anglo-saxonne et qui n’a pas honte de son identité. Grâce à une politique linguistique très active, les Québécois ont non seulement réussi à maintenir leur présence mais aussi à élargir le champ de la langue française qui progresse même aujourd’hui au Québec, y compris à Montréal, notamment au moyen d’une immigration sélective privilégiant les candidats francophones venus de France, de Belgique, de l’Afrique du Nord et de l’Afrique subsaharienne. Les autorités québécoises pratiquent en effet une immigration volontariste et choisie puisque les candidats sont soumis à un examen linguistique préalable avant de pouvoir émigrer au Canada francophone, ce qui rend plus éligible par exemple un Russe francophone qu’un Algérien qui ne le serait plus. Francophonie avec un grand F : l’Organisation internationale de la francophonie La Francophonie avec un F majuscule désigne l’ensemble des États et des instances officielles supraétatiques « qui ont en commun l’usage du français dans leurs communications et leurs échanges ». La Francophonie est aujourd’hui « dirigée » par l’OIF 3 . Le concept, créé à l’origine au XIX e siècle par le géographe Onésime Reclus, était une idée défendue par quelques grandes personnalités du monde francophone, comme le Cambodgien Norodom Sihanouk, le Tunisien Habib Bourguiba ou, au premier rang d’entre eux, le Sénégalais Léopold Sédar Senghor, membre de l’Académie française... Le 20 mars 1970, c’est en présence du ministre de la Culture français, André Malraux, et de 22 chefs d’État que l’acte de naissance de l’ACCT (Agence de coopération culturelle et technique), devenue aujourd’hui l’Organisation internationale de la francophonie, est signé à Niamey. La liste des signataires est édifiante : 5 États de l’hémisphère Nord, la France, Monaco, le Canada, la Belgique et le Luxembourg ; 2 États de l’Asie pacifique, le Cambodge et le Viêtnam, 1 des Caraïbes, Haïti, et 14 États du continent africain 4 . La place des États pudiquement baptisés « pays en voie de développement » y reste donc très majoritaire, et on imagine sans mal, dès cette époque, qu’au-delà des objectifs strictement linguistiques et culturels, les préoccupations géoéconomique sont présentes dans de nombreux cas. Depuis 1945, l’Afrique subsaharienne partage le triste privilège de vivre en direct la majorité des conflits ouverts. Et les États francophones sont loin d’être absents du palmarès, de la guerre entre le Mali et le Burkina Faso aux dramatiques événements du Rwanda, des crises intestines égrenant l’histoire contemporaine de l’ex-Zaïre ou du Congo-Brazzaville au conflit de Casamance ou à celui du Sahara occidental entre le Maroc et la Mauritanie, sans oublier la montée en puissance de l’islamisme et du djihadisme dans toute la bande sahélo-saharienne et alentour. Quant à l’océan Indien, exempt de nombreux conflits « frontaliers » par essence, leur intérêt stratégique n’en est pas moins exceptionnel ! Et ce n’est pas par hasard que, sous couvert de la francophonie, Paris affirme sa présence, via sa souveraineté sur les « Îles Éparses 5 » ou son département de Mayotte, face aux Comores. Cette évocation nous autorise sans doute à souligner, in fine, le rôle majeur et parfois complémentaire, joué par les disparités de valeurs, politiques religieuses et « historiques ». Pour ce qui est des valeurs démocratiques, au-delà de l’exemple de la Guinée équatoriale, la palette des régimes politiques est particulièrement variée au sein des États membres de l’OIF, des grandes démocraties libérales occidentales aux régimes « autoritaires » en passant par les « semi-présidentiels », ou, pour reprendre l’heureuse formule de l’écrivain argentin Ernesto Sábato, les « démocratures ». Concernant le facteur religieux, rappelons qu’officiellement, seuls quelques États comme la France ont intégré le concept de laïcité dans leur Constitution. Face au fait religieux, la diversité des membres de l’OIF est patente : si la quasi-totalité de ses adhérents localisés dans l’hémisphère Nord baignent dans la sphère judéo-chrétienne et ses héritages plus ou moins laïques et désenchantés, les contrées du Sud en général et du continent africain en particulier sont marquées par une expansion structurelle et spatiale de l’Islam, voire de l’islamisme antioccidental, antifrançais et de plus en plus hostile à la francophonie. Son expansion tend à délégitimer et même à combattre les religions jadis importées par les puissances coloniales européennes chrétiennes. Une référence concrète, en ce domaine, peut être évoquée : l’appartenance de certains membres de l’OIF à une autre institution internationale, l’Organisation de la conférence islamique (OCI). Sur les 29 États africains membres de l’OIF, 18 ont aussi adhéré à l’OCI, dont 7 membres fondateurs de la Francophonie. Créée dès 1970, à Djeddah, la Conférence islamique, évoquée au chapitre VII, est devenue une institution incontournable à l’échelle de l’ensemble du monde musulman. Certains de ses objectifs clairement affichés ne peuvent que contribuer à renforcer les divergences d’intérêts au sein l’OIF entre membres et non-membres, par exemple l’article qui invite à « consolider la solidarité islamique ; à conforter la lutte de tous les peuples musulmans pour la sauvegarde de leur dignité, de leur indépendance et de leurs droits nationaux »... A fortiori quand on lit dans la Charte le souci de rendre compatibles « les lois civiles avec celles supérieures de la charia », puis de « coordonner les actions destinées à sauvegarder les Lieux saints, soutenir la lutte du peuple palestinien et aider à récupérer ses territoires », l’objectif est difficilement compatible avec celui de l’OIF qui s’interdit toute ingérence dans la géopolitique interne des États. La troisième vague d’adhésions, qui fait passer aujourd’hui l’OIF à 84 membres (54 de plein droit, 4 associés et 26 observateurs), est plus édifiante encore. Elle correspond à la conjonction de 3 facteurs complémentaires : la disparition du système bipolaire, le processus de mondialisation et les mutations internes des missions assignées à l’OIF 6 . Un flux qui, même si certains de ces nouveaux adhérents n’adoptent que le simple statut d’observateur, souligne le souci des anciens membres du bloc de l’Est, après la disparition de l’Union soviétique, d’intégrer des structures supraétatiques susceptibles de leur éviter l’isolement géopolitique synonyme de marginalisation et qui explique aussi l’arrivée au sein de l’OIF d’États où le français n’est ni langue officielle, ni langue nationale, et même tout juste « langue d’étude » pour une minorité ! Quant au processus de mondialisation, il achève de faire de l’OIF une organisation fermement ancrée sur les 5 continents, avec l’adhésion du Cap-Vert (1992), de la Suisse (1996), de São Tomé e Príncipe (1999), d’Andorre (2004), de l’Autriche (2004), de la Grèce (2004), de Chypre (2006), du Ghana (2006), du Mozambique (2006), de la Thaïlande (2006), de la République dominicaine (2010), des Émirats arabes unis (2010), du Monténégro (2010), du Qatar (2012), de l’Uruguay (2012), de la Corée du Sud (2015), du Mexique (2015) ou de l’Argentine (2016). Les missions de l’OIF, progressivement modifiées, se sont notamment concrétisées par les déclarations historiques de Bamako, de Saint-Boniface et de Ouagadougou. Les deux premières soulignent la volonté de l’OIF de « contribuer à la prévention des conflits et dans l’espace francophone, de favoriser la consolidation de l’État de droit et de la démocratie et d’agir pour la promotion et l’effectivité des droits de l’homme ». Programme qui épouse indéniablement les grands principes et les grands axes de la politique étrangère conduite par la France au cours des dernières décennies. Quant à la déclaration de Ouagadougou, elle met en avant dans le domaine économique et social les thèmes majeurs de la coopération et du développement durable et solidaire. Notons déjà, une incompatibilité (au moins apparente) entre ce double affichage et le fait que l’OIF a aussi adopté sans réserve le principe de non-ingérence dans les affaires intérieures des États concernés ! Au-delà de ces considérations générales, deux processus majeurs et complémentaires demeurent : l’approfondissement des structures, des missions, des objectifs, d’une part ; l’élargissement géographique, avec la multiplication spectaculaire des adhésions, d’autre part. Parmi les exemples les plus édifiants, on peut citer celui de la Guinée équatoriale. Au lendemain de son accession à l’indépendance, ce pays ne reconnaissait qu’une seule langue officielle, l’espagnol (en dépit du fait que la grande majorité de ses habitants ne parlait que fang). Par sa situation géographique, la partie continentale du pays étant frontalière de deux États francophones, le Gabon et le Cameroun, le régime de Malabo a décidé d’adopter, en 1998, une loi constitutionnelle établissant que « les langues officielles de la République de Guinée équatoriale sont l’espagnol et le français ». Dans ce contexte volontariste, le français est devenu la langue obligatoire dans les établissements du second degré (des établissements, il est vrai, fréquentés par moins de 10 % de la population). En juillet 2007, le président Obiang Nguema faisait adopter le portugais comme troisième langue officielle du pays, et adhérait dans la foulée à la Communauté des pays de langue portugaise (la CPLP, « lusophonie ») sans cacher que l’officialisation des langues française et lusitanienne était destinée à favoriser la candidature de Malabo aux aides économiques offertes par la France, la CPLP et la Francophonie ! À l’échelle de l’Europe, les nouveaux venus dans le club francophone de l’OIF confortent sans équivoque l’actualité et la pérennité des contentieux potentiels de la péninsule balkanique. La Croatie catholique (proallemande et germanophile), la Serbie orthodoxe (traditionnellement francophile), l’Albanie musulmane (très italophile et italophone), par exemple, sont désormais toutes les trois membres de l’OIF. Cela suffira-t-il à éradiquer définitivement les problèmes interétatiques, voire intraétatiques qui surgissent régulièrement au sein des territoires de l’ex-Yougoslavie ? On peut bien sûr en douter. Au-delà des Balkans, la présence de la Moldavie, de l’Ukraine, de l’Arménie ou de la Géorgie dans cette instance francophone rappelle aussi directement l’acuité des questions géopolitiques qui ont agité et qui agitent encore les marches orientales de l’Europe, l’ensemble caucasien et la vitalité de ses « conflits gelés ». Dans l’Asie du Sud-Est, la présence du Laos, du Viêtnam ou du Cambodge contribue à s’interroger sur la fragilité des équilibres régionaux et sur le rôle effectif que pourrait jouer l’OIF dans la promotion des valeurs démocratiques. Au plan des relations bilatérales, les exemples foisonnent aussi en matière d’ambiguïté et vraisemblablement de leurres et de faux-semblants. Par exemple, la « cohabitation », au sein de l’OIF, de la Hongrie, de la Roumanie, de la Bulgarie et de la Moldavie, masque les contestations récurrentes liées (et pas seulement dans la mémoire collective) aux modifications historiques des frontières, et particulièrement celles qui sont directement héritées des traités mettant fin à la Première Guerre mondiale et régulièrement réactualisés par l’épineuse question des minorités. Témoin, l’œuvre concrète d’un francophone, Emmanuel de Martonne, le « Père » de la Grande Roumanie, dont la personne est quasiment adulée à Bucarest et franchement détestée du côté de Budapest ou de Sofia, et pour cause : une partie de l’ancienne Hongrie, toujours peuplée de Magyars, appartient à la Roumanie. 1. Claude Hagège, Contre la pensée unique, Paris, Odile Jacob, 256 p. 2. Tristan Gaudiaut, « Les langues les plus parlées dans le monde », Statista, 29 septembre 2020. 3. Organisation internationale de la francophonie. 4. Bénin, Burundi, Côte d’Ivoire, Gabon, Burkina Faso, Madagascar, Mali, Maurice, Niger, Rwanda, Sénégal, Tchad, Togo, Tunisie. Une seconde vague d’adhésions deux décennies après, plus hétérogène : Laos (1972), Liban (1973), Comores (1975), Seychelles (1976), Djibouti (1977), Vanuatu (1979), Dominique (1977), Sainte-Lucie (1979), Mauritanie (1981), Maroc (1981), Égypte (1983), Centrafrique (1973), Cameroun (1975), Congo RDC (1977), Guinée-Bissau (1979), Congo-Brazzaville (1981), Guinée (1981). 5. Petites îles françaises situées autour de Madagascar. 6. Vont adhérer successivement à l’Organisation des pays comme la Roumanie (1991), la Bulgarie (1991), la Pologne (1996), la République tchèque (1997), la Moldavie (1998), la Lituanie (1999), l’Albanie (1999), la Slovénie (1999), la Slovaquie (2002), la Macédoine (2002), la Serbie (2003), la Hongrie (2004), la Croatie (2006), la Géorgie (2006), l’Ukraine (2006), I’Arménie (2008) ou la Lettonie (2008). PARTIE II VARIABLES CONTEMPORAINES CHAPITRE VII Islamisme et terrorisme mondialisés « Il faut savoir ce que l’on veut. Quand on le sait, il faut avoir le courage de le dire. Quand on le dit, il faut avoir le courage de le faire. » Georges Clemenceau De quoi parle-t-on au juste ? Loin de supprimer les conflits identitaires, la mondialisation est un formidable moteur des chocs civilisationnels, dont l’islamisme radical est l’exemple le plus flagrant. Le projet panislamiste étant par définition hostile aux frontières et aux nations, il constitue de ce point de vue une des faces noires de la mondialisation. En 2014, lorsque des combattants de l’État islamique effaçaient à coups de pelleteuses la frontière syro-irakienne considérée comme un héritage impie des accords Sykes-Picot, cela participait en fait du même projet antifrontiériste que celui annoncé par Thomas Friedman, auteur de La Terre est plate. Cet apparent paradoxe a été décrypté par Benjamin Barber dans son ouvrage précité, Djihad versus McWorld. Pour mieux comprendre la place de l’islamisme et du terrorisme djihadiste dans le processus de mondialisation et donc de destruction de la diversité culturelle de la planète, il faut d’abord définir ce phénomène d’un point de vue géopolitique. La perspective communautarienne 1 des relations internationales, théorisée par Barry Hughes 2 , qui reconnaît aux groupes identitaires ethnoreligieux radicaux un rôle d’acteurs de la politique internationale, permet d’appréhender l’islamisme comme un phénomène géopolitique à part entière, dont le terrorisme n’est qu’une composante minoritaire. Du point de vue des études de sécurité et de la polémologie, l’islamisme doit être analysé comme un projet politico-religieux qui vise à imposer la charia dans sa conception totalitaire à tous les musulmans, puis à rétablir un califat destiné à dominer, de gré ou de force, l’humanité tout entière (voir califat, cartes n o 8 et 9). Ce continuum idéologico-religieux, qui crée des passerelles entre islamisme politique institutionnel et islamisme djihadiste, ne peut pas être ignoré par ceux qui font face à cette menace à la fois polymorphe et asymétrique, qu’ils soient musulmans, les premiers concernés et frappés par les islamistes qui poursuivent avant tout les « apostats » (murtaddin), ou qu’ils soient non musulmans, donc des infidèles (koufars). D’après l’approche communautarienne de Barry Hughes, les communautés qui se perçoivent comme supérieures (race, ethnie, religion ou culture/langue) ont tendance à s’isoler par l’établissement de frontières étanches, formelles ou virtuelles, et peuvent devenir des acteurs influents de la politique internationale dès lors que leur groupe en rupture avec l’ordre ambiant veut imposer sa domination aux autres entités via un prosélytisme suprémaciste ou irrédentiste 3 . Adepte de cette démarche analytique qui analyse le fait civilisationnel, Mohammad- Reza Djalili 4 a très bien mis en lumière la conception géopolitique originelle islamique, à laquelle se réfèrent toutes les mouvances islamistes, en rappelant que l’islam politique (et pas seulement le terrorisme islamiste) divise principalement l’humanité en deux mondes antinomiques : le dar al-islam, ou « demeure de l’Islam », entité fondée sur le triple monisme : une communauté, une foi, une loi, et le dar al-harb (monde du non-Islam ou demeure de la guerre, à combattre ou à soumettre). Les musulmans sont ici censés former une communauté unique, séparée et supérieure 5 . Dans cette vision, la religion est le seul fondement de la citoyenneté et de la communauté, l’oumma, appelées à terme à être réunies dans un califat (carte n o 8). Ce projet néocalifal, commun aux mouvances islamistes institutionnalisées (Frères musulmans, Jamaa al-islam, Millî Görüş, etc.) ou terroristes (salafistes djihadistes), relancé par les adeptes du salafisme ou salafiyya, est non seulement vu comme une institution supranationale appelée à dominer toute l’humanité (Tamkine planétaire), mais constitue la seule « nation » ayant réellement le droit d’exister sur terre. Le droit islamique classique ne reconnaît d’ailleurs d’autre nation que l’islamique. Cette théorie néo-impériale de l’État universel islamique s’oppose par principe à la coexistence d’une pluralité d’États égaux et souverains, et c’est pour cette raison notamment que l’islamisme radical n’est pas qu’une menace terroriste (partie émergée de l’iceberg totalitaire) mais avant tout un défi géopolitique et stratégique pour tous les États-nations attachés à leur souveraineté et à leur pérennité, qui voient dans l’islamisme un projet subversif à la fois séparatiste (en interne) et suprémaciste conquérant (au niveau externe). « Tant que l’humanité dans sa totalité n’est pas soumise à cet État islamique idéal – le “dar al-islam” –, il reste une partie du monde qui échappe à la loi divine, le “dar al- harb”, explique Djalili. Pour conquérir ces territoires, le recours à la force (guerre) est en principe licite jusqu’à la victoire finale de l’Islam sur les non-croyants. » Fortement influencé par le prédicateur islamiste pakistanais Abou Ala al-Mawdoudi, penseur majeur des Frères musulmans – après al-Banna et Sayyid Qutb, inspirateur du djihadisme, confirme cette idée « orthodoxe » théocratique que « l’Islam ne connaît que deux types de sociétés : musulmane ou jahilite. La société musulmane est celle où est appliqué l’Islam, [...]. La société jahilite est celle où l’Islam ne s’applique pas 6 ». Par extension, la jahiliyya désigne tout ce qui, dans le monde moderne, s’éloigne de l’Islam, que ce soient les vestiges de la société païenne pharaonique ou les sociétés non musulmanes du présent. Dans la rhétorique musulmane traditionnelle, l’Europe, l’Inde ou les pays musulmans dirigés par des régimes peu ou prou laïcisant (Irak, Syrie, Tunisie, Turquie) sont par conséquent des sociétés jahilites 7 . Les pôles majeurs du totalitarisme vert : de l’islamisme institutionnel au djihadisme Cette pensée totalitaire, commune à l’islamisme indo-pakistanais, au salafisme révolutionnaire et djihadiste et aux Frères musulmans, dont les États protecteurs actuels sont le Qatar et la Turquie d’Erdoğan, inspire l’ensemble de l’islamisme radical. La seule différence est que les djihadistes veulent réaliser l’objectif ultime du califat universel par la guerre hic et nunc, dans le cadre de la « stratégie de la sidération » violente, alors que les adeptes de l’islamisme institutionnel (Frères musulmans ; islamistes turcs de l’AKP/Milli Görüs) veulent y parvenir par des moyens démocratiques ou subversifs, en prenant le contrôle d’États musulmans purifiés de leurs forces laïques stato- nationalistes, perçues comme des cinquièmes colonnes du monde « mécréant ». En dépit des différences et antagonismes opposant, d’une part, l’islamisme institutionnel, adepte de la stratégie de l’entrisme, et, de l’autre, l’islamisme djihadiste, adepte de la stratégie de l’intimidation par la violence, les sources théologiques salafo- fréristes demeurent communes et les deux acteurs islamistes dissemblables concourent tous deux aux mêmes objectifs de démantèlement du pouvoir infidèle dénoncé par Hassan al-Banna, Sayyid Qutb ou Abou Ala al- Mawdoudi et d’édification d’un empire califal, décrit par Bruno Étienne comme le marqueur même de la catégorie d’islamisme radical. Cette idéologie fondée sur le règne de la charia et du califat planétaire, appelée à soumettre, de gré ou de force, l’humanité (voir carte n o 8), est portée depuis des décennies par des grands pôles étatiques 8 : le wahhabisme salafiste officiel d’Arabie saoudite, avec son bras prosélyte mondial, la Ligue islamique mondiale ; le pôle indo-pakistanais, cofondateur du Jamaat al-islamiyya ; des talibans d’al-Qaida ; le Qatar, parrain du Hamas et des Frères musulmans, à la tête du média planétaire Al Jazeera ; le pôle néo-ottoman réhabilité par la Turquie postkémaliste de Recep Tayyip Erdoğan ; la révolution islamique iranienne chiite, influencée dans ses origines par les Frères musulmans bien qu’étant chiite ; sans oublier les puissantes institutions et organisations internationales panislamiques comme l’Organisation de la coopération islamique (voir infra), qui réunit cinquante-sept pays musulmans désireux d’instaurer un ordre international alternatif fondé sur la charia, l’Organisation du monde islamique pour l’éducation, les sciences et la culture (Isesco, sorte d’« Unesco » islamique, influencée par les Frères musulmans) ; et enfin, les grandes centrales terroristes comme al-Qaida ou Daesh, et les groupes franchisés associés comme Aqmi, Boko Haram, shebab somaliens, etc. (voir infra). Ces pôles sont tous plus ou moins reliés par des passerelles officieuses ou officielles, ponctuelles ou durables, le Qatar, la Turquie et l’Iran appuyant officiellement le Djihad islamique et le Hamas palestiniens, et le Pakistan, le Qatar, le Koweït, le Soudan, l’Arabie saoudite et la Turquie soutenant ou ayant même parfois cocréé des centrales terroristes comme al-Qaida ou Daesh. De ce fait, la différence entre, d’une part, l’islamisme institutionnel, qui a pignon sur rue en pays musulman et non musulman, et, de l’autre, l’islamisme djihadiste, est plus une différence de degrés que de nature, et c’est bien là le vrai fond, idéologico-politique et théologique, du problème. Les organisations terroristes ne constituent que la face émergée de l’iceberg islamiste totalitaire qui a déclaré la guerre à ses ennemis « mécréants » et « apostats ». En réalité, la menace islamiste est également incarnée par des pays et mouvances parfois réputés « amis » de l’Occident, certains étant dotés d’armées régulières, parfois nucléaires (Pakistan, bientôt la Turquie et l’Arabie saoudite), ou fournies par l’Alliance atlantique (Turquie). Elle est alimentée financièrement, diplomatiquement et idéologiquement par les monarchies gazo-pétrolières sunnites du Golfe et relayée – sous couvert de droit à la liberté religieuse – jusqu’au sein de nos sociétés ouvertes ou des Nations unies, par des organisations et associations appuyées au niveau institutionnel par ces mêmes États et pôles précités (Isesco, OCI, Ligue islamique mondiale, etc.). Paradoxalement, l’Occident entend donc lutter contre le djihadisme sur son sol sans jamais neutraliser ces pôles subversifs parfois « alliés », qui poursuivent pourtant les mêmes objectifs d’islamisation planétaire que ces terroristes, certes de façon plus « pacifique ». L’erreur occidentale et atlantiste des alliances contracivilisationnelles Les alliances paradoxales, que nous avons nommées « contra- ou anticivilisationnelles » scellées par les États occidentaux membres de l’Otan avec les pôles de l’islamisme, remontent, on le sait, à la fin de la Seconde Guerre mondiale (pacte du Quincy scellé entre les États-Unis et l’Arabie saoudite en 1945). Elles ont été à la fois fondées sur des impératifs énergétiques, financiers, puis politico-stratégiques, notamment sous la guerre froide, lorsque les États-Unis ont appuyé les moudjahidines en Afghanistan pour endiguer l’Union soviétique (muslim belt). La généalogie du djihadisme remonte en fait, sur le plan doctrinal, à un courant de l’islam sunnite promu par l’Arabie saoudite et le Qatar, et inspirateur théologique d’al-Qaida et de Daesh, le hanbalisme, ancêtre du wahhabisme. On appelle aussi ce courant « salafisme », en référence aux « pieux ancêtres » (as-Salaf), les premiers musulmans compagnons de Mahomet qu’il conviendrait selon eux d’imiter en tout, y compris dans le culte du djihad conquérant 9 . Au même titre que le djihad guerrier offensif, le dogme salafiste (aqida), qui invite tout musulman à désavouer les mécréants et à faire corps avec les musulmans (al-wala wa’l-bara ou « l’alliance et le désaveu »), est directement issu du wahhabisme saoudien. Cette idée foncièrement communautarienne, pour paraphraser Hughes, ou séparatiste, selon les termes du président Emmanuel Macron, consistant à désavouer les infidèles, a été théorisée au XIX e siècle par le petit-fils de Muhammad ibn ‘Abd al-Wahhāb ash-Sheikh (1786-1818) et elle est officiellement enseignée en Arabie saoudite et dans des milliers de mosquées et centres islamiques pilotés par ce grand allié des États-Unis dans le monde entier. À titre d’exemple, le fameux terroriste français Farid Benyettou, émir du réseau djihadiste dit « des Buttes-Chaumont », à Paris, qui a formé un nombre incroyable de futurs terroristes, élaborait ses « cours de religion » à partir des ouvrages de salafistes très respectables comme Muhammad ibn ‘Abd al-Wahhāb, notamment Ousoul ath-Thalata, puis de Saoudiens contemporains en bons termes avec les autorités de Riyad, comme Muhammad ibn Salih al-‘Uthaymin (mort en 2001), auteur notamment d’un manuel de droit islamique, Al- Ousoul min ‘ilm al-Oussoul 10 . À ses débuts, le phénomène s’est essentiellement exprimé à l’échelle locale, malgré sa prétention néocalifale déjà perceptible dans les écrits fondateurs des grands idéologues de l’islamisme radical au XIX e siècle. Force est de constater que c’est le processus de mondialisation anglo-saxonne qui a permis à al-Qaida de devenir la première organisation internationale islamiste et djihadiste dans les années 1980-1990, au sortir de la guerre froide. Depuis, le djihadisme, profitant de la mondialisation technologique comme des flux migratoires et du multiculturalisme, est devenu le quotidien de nombreuses sociétés musulmanes ou non musulmanes partout dans le monde. État des lieux et stratégies du djihadisme D’après une étude de la Fondation pour l’innovation politique (Fondapol) qui a recensé les attentats djihadistes dans le monde sur les quarante dernières années, le terrorisme islamiste aurait tué 167 000 personnes entre 1979 et 2019 pour 36 000 actes terroristes perpétrés aux quatre coins du globe. À ce chiffre, il convient d’ajouter au moins 3 000 morts en 2020, ce qui nous amène à un total de 170 000 morts début 2021. Si la France est le pays européen le plus touché, avec 320 morts causés par près de 74 attentats islamistes (soit 100 morts de plus que l’Espagne et trois fois plus que le Royaume-Uni – 101 morts), l’attentat du World Trade Center du 11 septembre 2001 (2 977 victimes) demeure l’acte le plus meurtrier à ce jour. Toutefois, il faut toujours garder à l’esprit que les pays qui paient le tribut le plus lourd sont, et de loin, les pays musulmans eux-mêmes, les zones les plus touchées étant l’Asie centrale (Afghanistan : 36 725 morts), l’Afrique subsaharienne (Nigeria : 19 000 morts), les États de la mer d’Arabie (Somalie, Soudan, Yémen), le Proche- et le Moyen-Orient (Syrie, Irak). Depuis 2012, l’Europe, plus particulièrement la France et la Belgique, a été la cible d’attentats ou de projets d’attaques perpétrés par des commandos revenant de Syrie ou d’Irak, ou bien par des islamistes ne s’étant pas rendus sur zone mais déterminés à agir localement. Dans la seule période 2017-2019, les pays de l’Union européenne ont subi 115 incidents à caractère terroriste islamiste, 22 attentats, 13 tentatives d’attentats et 78 projets d’attaques, pour un total de 85 morts et 400 blessés 11 . Près de 5 500 citoyens européens sont partis faire le djihad en Syrie-Irak depuis 2014 et 7 000 d’Afrique du Nord 12 . D’après le coordinateur de l’Union contre le terrorisme, Gilles de Kerchove, 1 500 djihadistes sont déjà rentrés en Europe depuis 2014, et le nombre d’islamistes radicaux capables de passer à l’acte est évalué à 50 000 au moins pour l’ensemble de l’UE 13 , donc sans compter des foyers suisses, bosniaques ou kosovars et albanais. Il estime le nombre d’islamistes prodjihadistes ou terroristes à 5 000 en Espagne, 25 000 au Royaume-Uni, et 17 000 en France. Dans l’Hexagone, 450 détenus islamisés (radicalisés) ont déjà été libérés entre 2012 et 2020, la majorité ayant été fanatisée en prison, preuve que les stratégies de déradicalisation et de réinsertion promues par l’Union et ses pays membres sont un fiasco, d’autant que dans plusieurs cas, des terroristes passés à l’acte étaient eux-mêmes suivis par les services... La France est le pays pour lequel le défi est et sera le plus important à l’avenir : environ 21 000 personnes ont été identifiées comme étant à des stades divers de radicalisation 14 . Le problème se pose donc, d’une part, avec les terroristes encore présents en Syrie dans les camps de détention kurdes, qui pourraient s’échapper ou être libérés, à la suite du désengagement américain et de l’abandon des forces kurdes, puis, d’autre part, en Europe et en France avec « les frustrés du djihad », ceux qui n’ont pas pu partir, puis tous ceux qui vont être ou ont été libérés de prison après être revenus de la zone Syrie-Irak- Yémen ou après avoir été arrêtés dans le cadre d’opérations terroristes commises ou planifiées en France. Les Français partis faire le djihad, le plus gros contingent d’Européens, et qui sont de retour, représentent ainsi un danger et un défi majeurs pour les autorités, en raison de leur expérience du terrain, de leur formation aux techniques de guérilla urbaine et de leur capacité à transmettre leur savoir aux radicalisés français, notamment en prison. De plus, la situation instable dans le nord de la Syrie, avec le retrait des troupes américaines, a inspiré le gouvernement français qui a décidé de rapatrier près de 130 hommes et femmes 15 détenus par les Kurdes et qui ont combattu ou sont en lien avec l’État islamique, soit une faible proportion sur les 300 personnes entre 2012 et 2017 qui sont revenues de Syrie, dont 240 hommes djihadistes 16 . Preuve de la forte possibilité de récidive de ces détenus libérés et très difficiles à surveiller indéfiniment, faute de moyens, une étude du Centre d’analyse du terrorisme (CAT) de juillet 2018 rappelle qu’environ 60 % des Français partis faire le djihad entre 1986 et 2011, en Afghanistan, en Bosnie ou en Irak, ont récidivé à leur retour : 6 revenants sur 10 ont en effet été condamnés en France ou à l’étranger postérieurement à leur retour pour des infractions terroristes. Ces chiffres ne comprennent pas les nombreux Français partis rejoindre Daesh entre 2014 et 2019, faute d’étude globale sur leur cas, fait ainsi valoir le CAT, et de recul historique, la majorité des 600 personnes jugées depuis 2014 étant encore en détention. Une menace asymétrique à la fois exogène et endogène Les principaux facteurs qui ont engendré le terrorisme international dans un contexte de mondialisation toujours plus intense ne montrent aucun signe de ralentissement pour les quinze prochaines années. Facilitée par les communications mondiales et les nouvelles technologies de l’information, la renaissance globale de l’identité islamique et le succès de l’islam politique, mouvement de fond observé dans tous les pays musulmans et même au sein des minorités musulmanes d’Occident, d’Inde, ou d’Asie du Sud-Est, va continuer d’offrir un cadre propice pour la diffusion de l’islamisme radical à l’intérieur et à l’extérieur du Moyen-Orient. Ce renouveau panislamiste s’est manifesté de façon particulièrement conflictuelle dans les contrées aux prises avec des luttes séparatistes nationales ou régionales (Palestine, Tchétchénie, Irak, Cachemire, Mindanao, sud de la Thaïlande, Xinjiang, Syrie, Libye, Nigeria, Afghanistan, Sahel, Corne africaine, etc.). Et dans un avenir proche, des grandes centrales djihadistes comme al-Qaida ou Daesh vont absorber encore plus qu’auparavant des guérillas islamistes et des mouvements séparatistes locaux. Parallèlement aux réseaux informels et traditionnels de fondations caritatives, madrassas, hawalas, et autres mécanismes de solidarité panislamique, exploités au maximum par les organisations islamistes pour contrer les forces antiterroristes et judiciaires des États, les technologies de l’information digitale permettront à la menace terroriste de devenir de plus en plus décentralisée, évoluant de ce fait vers un éventail éclectique de groupes, cellules et individus qui n’ont plus besoin d’un quartier général fixe pour planifier et exécuter des opérations, même si les actes perpétrés individuellement par des terroristes de troisième génération (voir infra) ou pseudo-loups solitaires sont en fait inspirés par les grandes centrales qui conçoivent kits, modes d’emploi, programmes ou simples appels destinés à mobiliser plus de personnes encore. Les conseils de ciblage, le savoir-faire en matière d’armes, la collecte de fonds et les formations deviendront de plus en plus virtuels, surtout avec l’avènement de la 5G et des imprimantes 3D (voir chapitre IX). Les attaques terroristes continueront, certes, d’utiliser principalement des armes conventionnelles, voire rudimentaires (djihad low cost : couteaux, voitures béliers et fusillades), qui s’adaptent constamment à la lutte contre le terrorisme. Toutefois, l’intérêt des djihadistes pour les armes chimiques, biologiques, radiologiques et nucléaires, certes compliquées à manier et à acquérir, est croissant. Le risque d’attaques terroristes majeures impliquant des ADM (armes de destruction massive) augmente donc. Les terroristes pourraient en effet acquérir des agents biologiques ou, moins vraisemblablement, un engin nucléaire portable (valise nucléaire), qui pourrait causer des pertes massives. Le bioterrorisme semble particulièrement adapté aux groupes plus petits et mieux informés. Les terroristes vont également intensifier les cyberattaques pour perturber les réseaux d’information critiques et, plus probablement encore, causer des dommages physiques aux systèmes d’information, puis pénétrer et frapper les services régaliens et même de renseignements. L’exemple français le plus évident étant l’agent de renseignement informaticien Mickaël Harpon, qui attaqua et tua quatre de ses collègues à la direction du renseignement de la préfecture de police de Paris (DR-PP) le 3 octobre 2019. Djihadisme low cost ubérisé Aujourd’hui, grâce aux technologies de la mondialisation marchande et digitale, n’importe qui peut se radicaliser seul chez lui, mais non sans aide extérieure, ce qui signifie que le « loup solitaire » existe de façon opérationnelle parfois, mais son inspiration vient de documents, vidéos, messages, fréquentations, lieux de prière, ouvrages conçus par des professionnels du terrorisme transnational et les cerveaux islamistes apatrides qui les mobilisent et qui cautionnent religieusement et moralement leurs actes de manière déterritorialisée. Il existe ainsi mille outils destinés à appuyer la diffusion de l’idéologie djihadiste, de modes d’emploi, de magazines (Dabiq, Dar al-Islam, etc.), de manuels, d’appels ou de protocoles... On peut citer par exemple le manuel Management de la sauvagerie d’Abou Bakr Naji, ou les textes d’Abou Moussab al-Souri, Syrien naturalisé espagnol, qui a écrit l’Appel à la résistance islamique mondiale (2003), deux théoriciens liés à al-Qaida et repris par Daesh qui ont mobilisé des centaines de djihadistes européens et internationaux soi-disant loups solitaires, mais en réalité recrutés psychologiquement et idéologiquement par ces inspirateurs suivant le modèle du djihadisme ubérisé. En outre, des documents techniques circulent dans ces milieux et sur le Darknet (voir chapitre IX), pour transmettre la fabrication de bombes artisanales, les méthodes pour se fondre dans la population, les techniques de ruses de guerre et taqiya 17 , bref, un ensemble de modus operandi et stratagèmes prêts à l’emploi à destination des candidats au terrorisme. Les stratèges du djihadisme s’appuient par ailleurs sur les textes sacrés. De cette manière, ils sont parvenus à légitimer et à décomplexer ceux qui commettent des crimes au nom d’Allah. Si un homme allait poser une bombe dans une synagogue après avoir lu Mein Kampf, en se réclamant des idées d’Adolf Hitler, dirait-on de lui qu’il se serait autoradicalisé et qu’il n’aurait rien à voir avec l’extrême droite ? En fait, les organisations islamistes internationales qui diffusent l’idéologie totalitaire et violente de la charia ont une influence mondiale et un réel enracinement théologique. Si l’on veut l’appréhender correctement et lutter efficacement contre les dangers qu’il pose, on ne peut pas réduire le terrorisme islamiste à ses petits soldats, mais il faut s’attaquer à son continuum idéologique évoqué plus haut. Et ce point de contact idéologique ou continuum est crucial dans la lutte antiterroriste, car si les radicalisés pouvant passer à l’acte violent sont estimés en France entre 12 000 et 20 000 (partisans de l’État islamique ou d’al-Qaida), les islamistes plus habituels, adeptes du suprémacisme de la charia et du califat, mais qui évoluent dans un cadre plus institutionnel tout en adhérant aux mêmes fondamentaux, sont quant à eux évalués à au moins 500 000 en France et entre un million et 1,5 million dans l’Union européenne, véritable vivier idéologique pour les recruteurs djihadistes. À cet effet, l’étude de l’Institut Montaigne, menée par Hakim El Karoui, citée précédemment, a démontré que 46 % des musulmans français sont de bons républicains, mais que 25 % sont favorables au voile islamique et à l’essentiel de la charia, et que 28 % d’entre eux ont connu une jeunesse marginale et sont entrés en sécession islamiste, contre la société française. Nous sommes donc confrontés à un véritable problème géopolitique de fracture civilisationnelle : une part croissante de la population musulmane européenne est appelée à s’inscrire en rupture avec la majorité « mécréante » autochtone en l’absence de politiques d’assimilation volontaristes. Ainsi, nos contrées jadis relativement homogènes et pacifiques seront de plus en plus semblables aux pays fracturés ethnoreligieusement et au bord de la guerre civile, comme la Thaïlande du Sud, les Philippines (îles musulmanes du Sud), le Nigeria (Nord musulman contre Sud chrétien), le Liban (chiites versus chrétiens et sunnites, puis Palestiniens), la Tchétchénie (Russes orthodoxes contre musulmans autochtones), la Macédoine (Albanais versus slavo-orthodoxes), etc. Comprenons bien en effet que cette idéologie s’implante de façon privilégiée là où elle trouve un écho, un terreau favorable, donc en pays hétérogène et ouvert aux flux de populations externes, ce qui explique pourquoi des pays comme la Hongrie ou le Japon ne connaissent aucun problème de non-intégration islamiste communautariste et de djihadisme. Situation actuelle/future de Daesh/al-Qaida La perte de territoire de Daesh et sa capacité de frappe en Occident diminuée ces derniers temps peuvent donner un sentiment de victoire. Mais loin d’avoir perdu aujourd’hui toute son influence et ses territoires, on oublie trop souvent que le premier territoire de Daesh, organisation foncièrement antinationaliste, est autant virtuel que celui du capitalisme ubérisé à la McWorld. Il est donc fondamental pour les États de l’investir dans le cadre d’une contre- propagande. Loin d’être des simples barbares illettrés, nombre de djihadistes sont parfaitement à l’aise avec les nouvelles technologies : ils savent notamment parfaitement crypter leurs communications. D’après le Centre d’analyse du terrorisme, en 2016, 80 % de la propagande (islamiste extrémiste) est diffusée sur les réseaux sociaux comme Facebook et Twitter. Les jeunes européens étant pour la grande majorité ultraconnectés, ils sont le terreau idéal des djihadistes pour la propagation de leur idéologie et le recrutement. On notera la même chose au sujet du rôle des femmes. Si elles n’avaient jadis pas le « droit » de s’impliquer, elles sont aujourd’hui autorisées à participer aux opérations suicide de « martyrs » terroristes. Dans les médias, on insiste trop souvent sur les femmes victimes de manipulation des islamistes (bien que cela arrive aussi), en oubliant qu’elles y jouent en fait un rôle très important en participant activement au recrutement et aux actions, la plupart de celles qui ont rejoint l’État islamique en Syrie l’ayant fait en connaissance de cause. Autre nouveauté, les groupes djihadistes ont vu dans la crise sanitaire de la Covid-19 une opportunité pour lancer de nouvelles offensives contre des gouvernements affaiblis d’Afrique (Sahel, Corne est), du Moyen-Orient et d’Asie du Sud-Est. Jusqu’à présent, ni l’État islamique ni aucune des différentes branches d’al-Qaida n’a affiché une vision stratégique claire concernant la pandémie (bien que l’EI ait diffusé des conseils sanitaires à ses militants sur la manière de gérer la maladie en se basant sur les paroles du prophète Mahomet...). Néanmoins, comme l’a déjà fait valoir Crisis Group, les forces djihadistes ont tendance à « exploiter le chaos » (voir l’ouvrage d’Abou Bakr Naji, Gestion de la barbarie 18 ), en gagnant du terrain et des adeptes là où il existe déjà des conflits, ou lorsque des États faibles sont confrontés à des troubles sociaux. L’EI, par exemple, a tiré parti du chaos post-2011 en Syrie pour arriver à un niveau de pouvoir que l’organisation n’aurait jamais atteint autrement. Il est possible que le chaos social et politique qui va probablement s’exacerber en 2022 (révoltes sociales comme les Gilets jaunes débordés par des groupes islamistes, émeutes et pillages perpétrés par les bandes ethniques des quartiers, etc.) offre des occasions similaires pour les djihadistes à mesure que la crise actuelle se poursuit. Inversement, les groupes qui contrôlent des portions importantes du territoire – comme les shebabs en Somalie – pourraient, tout comme les gouvernements, faire face à une montée de la grogne populaire s’ils ne parviennent pas à enrayer l’épidémie de la Covid-19 19 . Daesh n’est pas mort L’État islamique est aujourd’hui une organisation fort différente de ce qu’elle était lors de son accession au pouvoir en 2014 dans des territoires d’Irak et de Syrie où elle a proclamé un éphémère califat. Ceci fut tout de même la première expérience audacieuse visant à créer un « État » néocalifal et qui a fait sortir du mythe ce projet rêvé depuis des décennies par l’ensemble de la mouvance islamiste totalitaire mondiale. Depuis 2017, ce califat étatique territorialisé a été détruit par la Coalition internationale portée par les États-Unis et les efforts parallèles de la Russie, de l’Iran, des forces Kurdes, et des États syrien et irakien. Cependant, l’État islamique, redevenu une organisation transnationale, demeure encore parmi les deux plus puissantes « centrales » terroristes du monde avec al-Qaida. En Irak et en Syrie, le groupe tente de se reconstruire et il s’appuie sur des tactiques de guérilla et des attaques contre les forces de sécurité irakiennes et le régime d’Assad en Syrie. Pendant ce temps, des cellules dormantes attendent de lancer des attaques, comme celle du 21 janvier à Bagdad qui a fait plus de 30 morts, revendiquée par l’État islamique. Concernant la Syrie, la situation est loin de s’améliorer et toute l’action des Occidentaux, encore obnubilés par leur stratégie d’endiguement de la Russie et de ses alliés stratégiques iranien et syrien, semble concourir à faire le jeu de l’islamisme et du djihadisme : en juin 2019, Washington a fait adopter de nouvelles sanctions à travers la loi César (Caesar Syria Civilian Protection Act), extraterritoriale, qui prévoit d’interdire l’entrée aux États-Unis et de barrer l’accès au système financier américain à toute personne, institution ou entreprise soutenant l’État syrien dans la reconstruction ou les hydrocarbures (y compris la vente). Le but de cette stratégie de « pressions maximales sur le pays » est clairement d’empêcher la reconstruction matérielle de la Syrie, et donc de compromettre le volet économique, social et politique du plan de stabilisation du régime d’Assad conçu par Moscou. La Russie a certes gagné la bataille de l’éradication des rebelles islamistes mais ne pourra pas en empêcher durablement leur retour tant que le pays n’aura pas retrouvé le chemin de la croissance. On pourrait presque parler de « terrorisme économique » tant la pression sur la population, qui en est la première victime, est grande. Il est clair que la pauvreté endémique et croissante dans le pays, comme d’ailleurs au Liban voisin, directement impacté, offre un terreau favorable au retour de Daesh, d’al-Qaida et des rebelles frères musulmans qui attendent leur heure. En témoignent d’ailleurs les attentats commis par l’État islamique dans des zones stratégiques de Syrie : le 30 décembre 2020, 37 soldats syriens ont été tués dans une embuscade 20 dans leur bus militaire ; le 3 février 2021, 20 combattants prorégime ont trouvé la mort dans une nouvelle attaque de l’EI 21 . Et globalement, depuis mars 2019, 1 200 soldats syriens ou alliés ont été tués par les djihadistes de Daesh qui sont donc loin d’avoir disparu 22 . Daesh a cependant subi des revers bien réels, mais outre le fait que ses troupes sont encore nombreuses en zone « Syriak », il s’est aussi étendu dans le monde, adaptant ses stratégies à chaque contrée, jusqu’en Afrique subsaharienne, à l’Ouest, et à l’Asie, au Sud-Est. L’EI conserve aussi un trésor de guerre imposant estimé à 3 milliards d’euros, et son réseau, de plus en plus dur à cibler grâce à une digitalisation et à une décentralisation accrue, sera plus difficile à identifier et à combattre. L’erreur des pays occidentaux serait de préjuger de la défaite ou de la victoire de la mouvance islamiste (politique ou djihadiste) sur la base d’une perte de territoires ou de pouvoir (coup d’État du maréchal Abdel Fattah al-Sissi renversant l’ex-président égyptien frère musulman Mohamed Morsi en novembre 2013). Ce serait oublier que nous sommes confrontés à un phénomène totalitaire prosélyte dont le premier but est de propulser l’idéologie islamiste, de gré ou de force, dans une optique de conquête des esprits qui prime sur celle des territoires, en tout cas dans une phase préparatoire. Il est intéressant de relire les propos prononcés par Abou Mohammed al-Adnani peu avant sa mort en 2016. Le cerveau des attentats et porte-parole de Daesh, selon lequel le « territoire est secondaire » et l’idéologie (charia-califat) première, dit ainsi : « Notre but, notre victoire ou notre échec ne se mesurent pas à la conquête ou à la perte d’une ville. [...] Notre système d’action est essentiellement de répandre la Charia et de suivre le Coran. Tant que notre saint Coran sera lu et se répandra, notre vraie conquête continuera et nous ne serons jamais vaincus 23 . » L’anthropologue franco-américain Scott Atran, spécialiste du djihadisme, en conclut que la victoire de Daesh, en dépit de ses pertes de territoires, consiste à « avoir persuadé des millions de personnes que la charia est la seule façon légitime de gouverner ». Il est en effet indéniable que cette idée a progressé dans le monde, y compris auprès des jeunes musulmans de France. Dans la même veine, on peut aussi relire les propos du précurseur de l’État islamique, ex-membre d’al-Qaida en Irak, tué en 2006, Abou Moussab al-Zarqaoui : « Nous ne combattons pas ici (Irak) pour un morceau de terre, ni pour des frontières imaginaires tracées par Sykes-Picot, de même que nous ne combattons pas pour qu’un taghout (“tyran-apostat”) arabe remplace un taghout occidental. Notre djihad est bien supérieur à tout cela, nous combattons pour que la parole d’Allah soit la plus haute et que la religion soit tout entière à Allah 24 . » La mort d’al-Baghdadi, n’a pas fondamentalement changé la donne : l’organisation s’est immédiatement dotée d’un nouveau chef/calife en la personne du Turkmène irakien, Amir Mohammed Saïd al-Salbi al-Mawla, surnommé Abou Omar al-Turkmani, issu de la ville de Tal Afar, où nombre d’ateliers d’explosifs ont préparé les attentats planifiés par Daesh durant des années. Abou Omar, alias le Turkmène 25 , a d’ailleurs joué un rôle majeur dans le génocide de la minorité kurdophone irakienne yézidie et les trafics d’esclaves sexuels. Le fait que la direction de l’EI ne soit plus arabe mais turkmène, et que le frère même de ce nouveau calife, réfugié en Turquie, soit à la tête de réseaux de rebelles islamistes turkmènes agissant en Syrie, en Irak et en Libye (le « Front turkmène d’Irak », coalition de formations turkmènes fondée en 1995 avec le soutien d’Ankara), montre une évolution non exclusivement arabophone de la direction de l’organisation qui rompt ainsi avec trente ans de direction arabe des groupes djihadistes internationaux du Moyen-Orient. Cette évolution est d’autant plus significative que la Turquie d’Erdoğan, elle-même en voie de radicalisation idéologique panislamiste ou plutôt « néo-ottomane », a soutenu Daesh en Syrie (2014-2016), face à l’ennemi commun kurde, puis le Hamas palestinien à Gaza et al-Qaida en Syrie. Ankara a d’ailleurs parfaitement su instrumentaliser ces groupes combattants islamistes (dont nombre d’anciens d’al-Qaida/al-Nosra) en zone syro-irakienne pour alimenter ses nouveaux fronts ouverts en Libye ou dans le Caucase. On peut citer notamment les divisions Sultan Mourad, Hamza, Muntazir Billah, Suleyman Shah, qui ont fourni des mercenaires pour aller combattre aux côtés des milices islamistes dans l’ouest de la Libye face au nationaliste Khalifa Haftar et avec les forces azéries contre les Arméniens dans le Haut-Karabagh. Parallèlement, le nouveau calife Abou Omar al-Turkmani s’emploie actuellement à transformer les 4 000 djihadistes actifs en Irak et les 3 800 encore présents en Syrie en troupes de guérilleros capables de reprendre des territoires dès que des fenêtres d’opportunités s’ouvriront. Daesh conserve un trésor de guerre et de dizaines de milliers de combattants djihadistes D’après le ministère de la Défense américain, Daesh conserverait entre 15 500 et 25 000 membres, en Irak, principalement, sans compter les franchisés d’Afrique subsaharienne et d’Asie. En juin 2018, l’organisation contrôlait toujours environ 2 % du territoire en Irak et en Syrie, et elle essaierait de regrouper ses membres pour y créer des cellules dormantes en attendant un retour en force. Son noyau territorial est surtout concentré dans l’est de la Syrie, dans la vallée du Moyen-Euphrate, dans des régions rurales du sud de la province de Hasakah, et dans une enclave du bassin du Yarmuk, au sud de Damas. L’État islamique maintient des réseaux clandestins et ses djihadistes combattent principalement en petits groupes de 3 à 5 personnes. L’EI est devenu plus internationaliste qu’al-Qaida et s’est en quelque sorte spécialisé dans « l’ennemi lointain », d’où la plus grande proportion d’attentats commis par Daesh en Occident par rapport à al-Qaida, quant à elle focalisée sur « l’ennemi proche » (gouvernements musulmans « traîtres », apostats, et les forces occidentales « occupant » des pays musulmans). En outre, depuis la chute de l’État islamique en 2017, nombre d’anciens d’al-Qaida devenus membres de l’EI sont retournés dans le giron d’al-Qaida, ce qui n’est pas sans créer des tensions entre les deux organisations, même si l’on observe aussi des cas d’hybridations selon les théâtres, notamment en Afrique sahélienne. L’objectif d’islamisation de l’humanité demeure toutefois commun aux deux organisations, mais les modèles diffèrent : si l’État islamique veut absolument recréer le califat transnational et abolir les frontières entre États musulmans, al-Qaida remet à plus tard le but ultime du califat mondial et privilégie entre-temps une lutte plus directe dans des cadres nationaux. Al-Qaida redevenue la plus puissante organisation terroriste Après la chute de l’État islamique, al-Qaida, moins sous les radars que l’EI, en a profité pour se renforcer. Elle a toujours été présente en Syrie, via le groupe Jabhat al-Nosra, devenu Hayat Tahrir al-Sham, et début 2018, un nouveau groupe fidèle à al-Qaida a fait son apparition en Syrie sous le nom de Tanzim Hurras ad-Din, lequel regroupe entre 2 000 et 3 000 combattants. Al-Qaida possède des implantations plus anciennes et plus importantes que Daesh, au Moyen-Orient, au Khorasan, au Sahel, au Yémen, en Libye ou en Somalie. Lors d’une opération américaine dans la région Afghanistan/Pakistan, les forces spéciales américaines ont tué Hamza Ben Laden, fils préféré d’Oussama Ben Laden, le 14 septembre 2019, présenté comme l’héritier de l’organisation. De la même manière, le supposé numéro deux d’al-Qaida, inculpé aux États-Unis pour des attentats perpétrés contre des ambassades américaines en Afrique de l’Est en 1998, Abdullah Ahmed Abdullah, a été assassiné lors d’une opération secrète dans les rues de Téhéran au mois d’août 2020. Abdullah, alias Abou Mohammed al-Masri (« Abou Mohamed l’Égyptien »), était présenté comme un successeur possible d’Ayman al-Zawahiri, l’actuel chef d’al- Qaida, et se trouvait en Iran depuis 2003. Et le 4 juin 2020, le leader d’al-Qaida au Maghreb islamique, l’Algérien Abdelmalek Droukdel, a lui aussi été tué dans le nord du Mali, parallèlement à la capture, mi-mai, d’un cadre important de l’État islamique au Grand Sahara (EIGS). Toutefois, la mort de hauts cadres du noyau central historique d’al-Qaida n’affecte pas le reste de la nébuleuse, en réalité reliée par une idéologie, un projet et des intérêts partagés, mais composée de franchisés et franchiseurs. L’organisation est toujours forte de plus de 50 000 à 70 000 membres dans le monde, dont 11 000 rien qu’en Syrie et 7 000 dans le seul Sahel. Elle fonctionne comme une centrale qui rédige des notes, des appels, suggère des alliances, émet des fatwas et consignes, conçoit des kits opérationnels, sans intervenir sur l’aspect tactique des opérations, se contentant de définir la stratégie globale que les affiliés et groupes « franchisés » appliquent comme ils l’entendent. al-Qaida au Maghreb islamique reste la filiale la plus active, aux côtés d’al-Qaida dans la péninsule Arabique (Aqpa, basée au Yémen). Si les États-Unis retirent des milliers de soldats d’Afghanistan, al-Qaida est également bien placée pour profiter du vide qui en résulte et régénérer son réseau dans toute l’Asie du Sud. L’organisation, toujours dirigée par l’un de ses fondateurs historiques, Ayman al-Zawahiri, a survécu pendant plus de trois décennies grâce à la capacité du groupe à innover en affinant constamment des tactiques, des techniques et modus vivendi caractérisés par une très forte capacité d’adaptation selon les circonstances, les contextes culturels et les zones géographiques. Ses affiliés à travers le monde continuent de démontrer leur capacité à lancer des attaques spectaculaires, comme en témoignent les attentats perpétrés le 2 janvier 2021 au Niger (cinquante-six villageois tués), par une mouvance d’al-Qaida au Sahel, le Groupe de soutien à l’islam et aux musulmans (en abrégé GSIM 26 ), puis au Mali, contre deux militaires français : la sergente Yvonne Huynh et le brigadier Loïc Risser, du 2 e régiment de hussards de Haguenau (Bas-Rhin). L’Asie du Sud, nouvel horizon des centrales djihadistes En Asie du Sud-Est, principalement aux Philippines et en Indonésie, alimentées par la pauvreté, les tensions entre les divers groupes ethnoreligieux, les organisations terroristes se développent et recrutent de plus en plus depuis une dizaine d’années, souvent en se greffant sur des mouvements préexistants séparatistes islamistes qui sont ainsi franchisés. Aux Philippines, l’organisation terroriste Abu Sayyaf a été très tôt en lien avec al-Qaida et a même été financée à ses débuts par l’organisation caritative de Mohammad Jamal Khalifa, un beau-frère d’Oussama Ben Laden. Al-Qaida est l’organisation terroriste la plus active dans cette zone, même si Daesh y progresse depuis 2016. Parmi les principales attaques survenues au cours des deux dernières décennies, on peut mentionner celles perpétrées par Abou Sayyaf, le 27 février 2004 contre un ferry, aux Philippines (116 morts), et le 10 juillet 2007 – en coopération avec le Front Moro islamique de libération (14 marines philippins tués, à Basilan, dont 10 décapités) ; le 27 janvier 2019 dans la cathédrale de Jolo aux Philippines (20 morts et 81 blessés), le double attentat à la bombe du 24 août 2019, à Jolo (10 morts), ou encore celui du 17 avril 2020, lorsque, en pleine pandémie, 40 combattants de Daesh et Abu Sayyaf ont attaqué des soldats toujours à Jolo (12 morts). Quant à Daesh, initialement présente surtout au Moyen-Orient, elle a commencé à migrer vers l’Asie du Sud-Est après sa défaite en Syrie, montrant ainsi que l’organisation est capable de s’implanter partout dans le monde, en se greffant sur des groupes islamistes locaux ou en les infiltrant puis en les divisant. De nombreux militants d’Abu Sayyaf ont ainsi fait allégeance à l’État islamique. De même, 700 ressortissants indonésiens ont rejoint Daesh en Syrie pour y faire le djihad. La plupart ont répandu leur radicalisme dans leur pays à leur retour. L’État islamique comprendrait minimum 500 membres actifs aux Philippines, sans compter les autres groupes djihadistes armés rivaux ou associés, ce qui est conséquent pour la seule partie musulmane du sud des Philippines. En octobre 2017, un épisode marquant a démontré la montée en force de Daesh dans la région du Mindanao, au sud du pays, lors de la bataille de Marawi (ville à majorité musulmane) qui a opposé des combattants de l’État islamique aux forces gouvernementales philippines. Avec des scènes dignes de la guerre en Syrie, l’affrontement a duré cinq mois et provoqué la mort de 1 132 personnes (920 islamistes, 165 soldats et 47 civils) ainsi que le déplacement de 360 000 autres. Des centaines, voire des milliers de civils sont restés piégés dans la ville assiégée pendant des mois, retenus en otages ou pris entre deux feux 27 . Rappelons qu’en septembre 2017, dans le cadre de l’opération Pacific Eagle-Philippines (OPE-P), une campagne antiterroriste menée par le commandement Indo-Pacifique des États-Unis a été lancée pour soutenir le gouvernement philippin et ses forces militaires dans leurs efforts pour contrer l’État islamique et autres organisations djihadistes philippines. En avril 2020, sur fond de Covid-19 et de tensions sociales liées, la Defense Intelligence Agency (DIA) américaine a répertorié des messages islamistes sur les réseaux sociaux appelant à attaquer ceux qui respectent les mesures sanitaires du gouvernement philippin, et qui menacent les autorités de violence si les mosquées n’étaient pas autorisées à rouvrir 28 . Les terroristes ont ainsi profité de la crise sanitaire pour tenter de gagner du terrain : ainsi, le 26 juin 2020, lorsque la police a tué quatre militants de l’État islamique à Parañaque, près de la capitale Manille, une cellule dormante de l’EI a été démantelée, dont un membre impliqué dans l’attaque de la cathédrale de Jolo en 2019. Bien que moins touchée par le terrorisme, la Malaisie est également gagnée par l’islamisme, notamment l’État du Kelantan, dirigé par un parti islamiste qui a implanté les législations issues de la charia : les cinémas et discothèques y sont interdits, les couples ne peuvent pas se tenir la main en public et l’administration introduit les coups de canne en public pour sanctionner le non-respect de la loi islamique 29 ... Le djihadisme en pleine ascension au Sahel Le drame que traverse l’Afrique, frappée de plein fouet par le djihadisme, rappelle aux Occidentaux restés prisonniers de l’eurocentrisme que le totalitarisme islamiste ne combat pas seulement l’Occident « croisé », mais d’abord les pays musulmans et du Sud : l’Afrique paie de loin le plus lourd tribut depuis la chute de Daesh en Irak/Syrie. Les chiffres parlent d’eux-mêmes : 4 000 morts rien qu’en 2019 dans la zone sahélienne dite « des trois frontières » (Niger-Burkina-Mali), 15 000 au Nigeria depuis 2012, 5 000 en Afrique dans la Corne et l’Afrique australe depuis trois ans... Bien que le Nigeria soit la plus importante économie de l’Afrique – l’un des plus grands producteurs de pétrole de l’OPEP, et qui possède une élite politique compétente –, l’armée nationale est dépassée par l’insurrection du groupe Boko Haram dans le Nord et par ses incessantes attaques. Boko Haram, qui signifie « interdire ce qui est occidental », ne cesse de gagner du terrain. Rendue célèbre en 2014 lorsqu’elle a kidnappé plus de 200 jeunes filles en 2014, l’organisation a depuis lors considérablement élargi son assise au Nigeria en s’appuyant sur la pauvreté du Nord-Est musulman revanchard vis-à-vis du Sud chrétien, riche en pétrole, mais aussi sur la diffusion depuis les années 1990 du fanatisme salafiste, qui a souvent commencé par l’islamisation « institutionnelle » à l’instigation de prédicateurs revenus d’Arabie saoudite. Depuis l’ascension médiatique de Boko Haram, en 2014, des centaines d’églises catholiques ont été incendiées dans ces États du Nord-Est ; 80 000 chrétiens ont pris le chemin de l’exil pour gagner des États du Nigeria non musulmans. 64 000 ont dû trouver refuge au Cameroun, ce pays subissant aussi des attaques régulières du groupe... Depuis les années 2005, les attentats les plus violents commis par al-Qaida ont eu lieu au Sahel, où des dizaines de milliers de combattants appuyés par des tribus et réseaux salafistes ont plongé dans le chaos les faibles États du G5 Sahel (Mali, Tchad, Burkina, Mauritanie et Niger). Des milliers de civils ont été tués. Près de 3 millions de personnes ont dû fuir leurs domiciles au Mali, Niger et Burkina Faso, principaux pays touchés. Les troupes françaises de l’opération Barkhane, dont les effectifs (5 100 soldats en 2020, devant être réduits à 3 000 en 2022) sont trop faibles pour pacifier une zone grande comme l’Union européenne, peinent à endiguer la progression constante du djihadisme, d’une part, et de l’islamisme politique salafiste, de l’autre, faute de solution politique. On retrouve toujours ici le continuum idéologico-politique évoqué plus haut entre islamistes politiques et djihadistes. Dans les anciennes colonies françaises, la situation ressemble de plus en plus à celle du Nigeria : depuis la guerre de 2012, les djihadistes venus du nord du Mali (Kidal) ne cessent de gagner du terrain vers le centre et le sud du pays et les États voisins : Burkina Faso, Niger, Nigeria, Mali, Bénin, Cameroun, Côte d’Ivoire. Avec leur folle intervention contre le régime de Kadhafi en 2011 – qui a permis aux mercenaires présents en Libye d’acheminer armes et combattants dans tout le Sahel –, la France, la Grande-Bretagne et les États-Unis ont contribué à l’expansion de ce fléau en Afrique noire. Les attentats et prises d’otages dans la région des « trois frontières », là où une mine artisanale a tué, le 2 janvier 2021, deux soldats français à Ménaka (Mali), sont quasi quotidiens. Le processus de « sahélisation » d’Aqmi, à l’origine maghrébine, s’est accentué depuis la fin des années 2010 et la guerre civile malienne : la quasi-totalité de ses chefs et de sa logistique a été transférée de l’Algérie vers le Sahel. Le génie de l’homme fort d’Aqmi au Sahel, le Touareg malien Iyad Ag Ghali, ancien du Tabligh et des milices libyennes, fondateur d’Ansar Dine, a été de regrouper des mouvements djihadistes, touaregs, arabes et peuls noirs- africains nomades de la région au sein d’une structure unitaire nommée GSIM. Selon le Centre d’études stratégiques de l’Afrique lié au ministère de la Défense américain, et d’après les forces françaises présentes sur place, le Sahel est aujourd’hui la zone où le terrorisme islamiste connaît la croissance la plus rapide. Dans ce contexte, déjà très chaotique, le Burkina Faso a subi depuis la seule année 2015 plus de 100 attentats djihadistes de plus en plus meurtriers, perpétrés notamment par Aqmi, Ansar Dine, le Mouvement pour l’unicité du djihad en Afrique de l’Ouest (Mujao), Al-Mourabitoune, le GSIM, l’État islamique au Grand Sahara, la Katiba Macina, ou encore Ansar-ul-Islam, lié à Daesh. On retiendra l’attentat du 2 mars 2018 contre l’état-major général des armées et l’ambassade de France à Ouagadougou, revendiqué par le GSIM, qui a fait 16 morts. Ou encore celui du 13 août 2017, lorsque des djihadistes ont ouvert le feu sur un restaurant du centre de Ouagadougou (19 morts). Dans tout le continent africain, on constate une augmentation de tensions entre les communautés. Le terrorisme islamiste progresse non seulement en pays musulmans (Mali, Burkina Faso), mais aussi de plus en plus en pays mixtes chrétiens/musulmans, comme on le voit au Nigeria, bien sûr, et même, ce qui est nouveau, en Côte d’Ivoire, pays certes tiraillé entre tribus antagonistes et entre musulmans au nord et chrétiens au sud, mais où les attaques djihadistes et la percée de l’islam politique sont très récentes. On se souvient de l’attentat du 13 mars 2016 qui fit 19 morts (dont 3 soldats ivoiriens) dans un quartier touristique de Grand-Bassam – lieu de tourisme très prisé classé au patrimoine mondial de l’Unesco. Comme ailleurs, les lieux touristiques sont, avec les militaires des pays du G5 Sahel et les symboles gouvernementaux, des cibles privilégiées des djihadistes. Pour ce qui est du Bénin, de plus en plus infiltré par le djihadisme venu du Burkina Faso voisin, on rappellera que les otages français libérés le 10 mai 2019 par les forces spéciales du COS s’étaient aventurés dans le cadre d’un safari dans le parc du Pendjari (Bénin), l’un des plus beaux de l’Afrique de l’Ouest. Comme en Égypte (Nil, Charm el-Cheikh, Alexandrie, etc.), en Tunisie (attentats du Bardo et sur les plages), ou ailleurs, la stratégie des groupes djihadistes est de paralyser le tourisme en déstabilisant la zone. C’est ainsi que des pays comme le Bénin, qui tentent de développer leur tourisme, la Côte d’Ivoire, le Ghana et le Cameroun, sans oublier le Nigeria, voient leurs côtes et leurs zones frontalières de plus en plus visées. Le 2 janvier 2021, le pire attentat jamais commis par des djihadistes au Niger contre des civils a fait 100 morts dans 2 villages de l’Ouest (Tchoma Bangou et Zaroumadereye). Notons que les attentats et prises d’otages dans la région Sahel en zone francophone ont presque toujours lieu dans le secteur des « trois frontières ». Face à ce fléau hybride qui unit fanatisme, rivalités ethnotribales, délinquance et séparatismes, la France, venue au secours de l’État malien en janvier 2013 (opération Serval), puis l’opération Barkhane (revue à la baisse par Emmanuel Macron et qui a délaissé le Nord du Mali pour la zone des trois-frontières, plus exposée, notamment au Niger) apparaissent de moins en moins légitimes aux yeux des habitants. Nombre d’entre eux manifestant même à Bamako ou Gao aux cris : « La Russie plutôt que la France... » Les islamistes ont une vraie stratégie, contrairement à leurs ennemis et à l’Occident... D’après l’expert du djihadisme au Sahel, Drissa Kananbayé, les groupes djihadistes ont une vraie stratégie régionale d’expansion, et leurs attaques suivent un plan de conquête réfléchi. Il décline cette stratégie en trois actes : 1/ affamer, en volant le bétail et brûlant les vivres des habitants des villages abandonnés par des forces de l’ordre ; 2/ acculturer, en détruisant les traditions africaines préislamiques animistes et le soufisme-maraboutisme, considérés apostats ; 3/ soumettre les villageois qui, excommuniés et culpabilisés par les uns, attaqués et terrorisés par les autres, finissent même parfois par rejoindre les djihadistes. Grâce à cette stratégie qui pousse les villageois à gagner des villes, poursuit l’expert, les djihadistes étendent leur contrôle et leur économie criminelle. Ils font d’une pierre deux coups, en terrifiant les personnes exilées en ville où les islamistes politiques les fanatisent idéologiquement. Kananbayé rappelle que leur but n’est pas de sortir de la pauvreté, mais d’y plonger les habitants dans le cadre d’un chaos d’ailleurs théorisé par l’idéologue du califat, Abou Baker Naji (voir infra), très prisé dans la djihadosphère. Kananbayé rappelle que les imams wahhabites formés en Arabie saoudite complètent le travail des djihadistes sur le théâtre urbain : le célèbre imam malien Mahmoud Dicko, chef salafiste endoctriné à Médine, qui a présidé le Haut Conseil islamique du Mali (HCIM) et formé des milliers d’adeptes, incarne parfaitement cette alliance objective entre « coupeurs de têtes » et « coupeurs de langues 30 ». Le 26 mars en 2018, il remplit un stade de 100 000 personnes et fit annuler un projet de Code de la famille qui aurait amélioré le statut légal des mères isolées. En juin 2020, il a contribué à faire chuter le président Ibrahim Boubacar Keïta et créé un mouvement islamiste, la Coordination des mouvements, associations et sympathisants (CMAS) aux relations très ambiguës avec les djihadistes. Pour l’expert, la mainmise des islamistes se vérifie à travers la construction sauvage de mosquées à tous les coins de rue sur financement des pays du Golfe pendant que les populations meurent de soif et de faim. Nomades musulmans peuls fuyant la désertification en razziant les sédentaires du Sud : un double mouvement de fond climatique et civilisationnel Le problème (djihadiste) de fond en Afrique subsaharienne est également alimenté par le phénomène d’exode des nomades africains musulmans des ethnies peuls ou foulani, venues du nord et en proie à la sécheresse (la pluviométrie a en effet chuté de 20 % ces quarante dernières années), qui descendent de plus en plus vers le centre et le sud en pays mixte musulmans/chrétiens ou majoritairement non musulmans. Parallèlement, l’autre grand fléau concret de l’Afrique subsaharienne, la surnatalité incontrôlée (le Sahel est la seule région du monde qui n’a pas entamé sa transition démographique, voir chapitre IX), conduit les agriculteurs à rechercher de nouvelles terres. Un autre phénomène amplificateur est le délitement de l’État, corrompu et mal géré. On observe en particulier ce phénomène au Nigeria, au Mali, au Burkina Faso, au Niger ou en République centrafricaine. Les phénomènes de razzias perpétrées par des musulmans nomades du Nord sur des sédentaires du Sud-Est, une vraie tendance lourde. Dans leur pérégrination visant à retrouver du pâturage pour leur bétail, ces prédateurs nomades attaquent les villages des chrétiens, animistes ou musulmans sédentaires non peuls hostiles à l’islamisme (maraboutiques). Ces razzieurs sont « bénis » par des prêcheurs islamistes qui s’appuient sur la tradition du djihad et de la razzia contenue dans la charia et héritée des empires islamistes peuls du passé dits « du Macina ». Fondée en 2015 et sévissant surtout en milieu peul dans la région de Mopti, la « Katiba Macina » est le groupe terroriste le plus redoutable de la région. Dans l’imaginaire peul, « l’empire du Macina » (également nommé la Diina, ou « religion », en arabe mal prononcé), ancien État islamiste peul qui régna au XIX e siècle dans l’ouest du Mali, une partie du Burkina Faso et de la Mauritanie avec Mopti pour capitale, représente l’âge d’or où les Peuls n’étaient pas des minorités marginalisées par des États-nations postcoloniaux, mais des dominateurs 31 ... Du fait de cet héritage, les Peuls vivent comme les tenants d’un « islam pur », ce qui les rend perméables à la propagande salafiste, même lorsqu’ils viennent de traditions malikites et soufies africaines. Comme les idéologues de Daesh voulant rétablir les califats arabes (ommeyyade et abbasside) en Syrie et en Irak, les djihadistes maliens peuls sont nostalgiques de cet empire peul du Macina qui lançait des djihads pour « purifier » les sociétés musulmanes. Le leader de l’actuel groupe Macina ou Front de libération du Macina, Hamadoun Koufa, nom de guerre d’Amadou Diallo, est d’ailleurs lui-même un prêcheur peul d’origine soufie qui a été « salafisé » – radicalisé au contact du groupe Ansar Dine. La Katiba Macina a pour objectif de faire sécession de l’État malien dans son fief au centre du Mali, à l’instar des djihadistes berbéro-arabes du nord du pays. Montée en puissance depuis mars 2017, affiliée à Ansar Dine, puis au GSIM, la Katiba Macina sévit dans diverses communes de la région de Gao depuis 2014-2015. C’est elle qui perpètre le plus grand nombre d’attaques terroristes au Mali, au Burkina Faso, au Niger et à la frontière béninoise. Et bientôt en Côte d’Ivoire, au Ghana, au Togo, en Guinée Conakry et équatoriale, puis partout où des groupes tribaux peuls sont perméables au djihadisme. Dans cette partie du monde, le djihadisme est un phénomène « géocivilisationnel » de fond, qui répond à une « tradition djihadiste » ancestrale, d’où le recrutement très « endogène » en Afrique subsaharienne (presque aucun cas de « volontaires » djihadistes européens). Certes, tous les Peuls ne sont pas islamistes et encore moins djihadistes. Et l’amalgame entre Peuls et djihadistes – à l’origine de représailles sommaires contre les minorités peules de la part des pouvoirs et tribus sédentaires – est instrumentalisé par les groupes djihadistes dans le but de recruter. Extension du domaine du djihadisme : de la Somalie à l’Afrique australe De l’autre côté de l’Afrique, le groupe djihadiste somalien Al-Shabaab (« La jeunesse »), lié à al-Qaida, proche de la matrice géopolitique salafiste qu’est la péninsule Arabique, lutte depuis des années pour la création d’un État islamique salafiste en Somalie. Le groupe a régné un temps sur la capitale, Mogadiscio, et d’autres régions, mais la campagne militaire soutenue par l’Union africaine l’a affaibli territorialement. Sa présence demeure toutefois redoutable sur une partie importante du territoire, et aux frontières des pays voisins (Éthiopie, Kenya). Autre preuve du continuum idéologico-théologique du djihadisme, Al-Shabaab a incubé dans le giron d’Al-Ittihad al-Islami, une mouvance de prédicateurs salafistes formés en Arabie saoudite et au Yémen dans les années 1990 qui a été financée et poussée à la violence par Oussama Ben Laden, alors établi au Soudan. Le groupe a uni ses forces avec l’Union des tribunaux islamiques qui s’empara avec lui de la capitale en juin 2006. Ce succès a contribué à répandre le virus djihadiste dans les régions musulmanes voisines de l’Éthiopie honnie car à majorité chrétienne. Suite à l’intervention militaire de cette dernière, fin 2006, pour évincer les djihadistes de Mogadiscio à la demande du gouvernement de transition de la Somalie, les Shabaab ont pris la place des tribunaux islamiques et sont devenus une sorte de guérilla qui contrôle des bouts de territoire au centre et au sud. Un des pays les plus récemment ciblés par le djihadisme en Afrique est le Mozambique, État lusophone, majoritairement catholique, mais qui est un lieu stratégique : le canal du Mozambique étant l’une des principales routes du trafic maritime international. Frontalier de la Tanzanie et riverain de l’archipel des Comores, le pays compte 20 % de musulmans, répartis dans le Nord-Est très pauvre. Profitant de la faiblesse de l’État, l’Arabie saoudite y a exporté dans les années 1980-1990 son salafisme-wahhabite, comme au Mali. En 1998, à la fin de la guerre civile du Mozambique, des jeunes formés dans les universités islamiques saoudiennes 32 ont fait émerger le mouvement Ansar Al-Sunna du Mozambique, appelé par le peuple « Shabbabs ». Ce dernier a prêté récemment allégeance à l’État islamique, contrairement à ses homonymes somaliens. Al-Ansar/shebabs est apparu sur le devant de la scène en 2015, dans la province à 60 % musulmane du Cabo Delgado, au nord du pays, très pauvre et revancharde vis-à-vis des chrétiens majoritaires. Il commet sa première attaque d’envergure en octobre 2017 : il assaille le port de Mocimboa da Praia, s’emparant de postes de police, d’armes et de munitions. Ses attentats, revendiqués par Daesh, sont toujours plus meurtriers : 2 500 victimes en trois ans et plus de 500 000 déplacés depuis juin 2019. Lors d’une attaque djihadiste, le 7 avril 2020, 50 civils villageois ont été exécutés par balles et décapités dans un village, et un autre attentat perpétré en novembre 2020 a provoqué la mort de 52 adolescents retrouvés décapités. Le groupe se finance via les trafics de bois et de rubis, qui généreraient 30 millions de dollars annuels, et – comme Aqmi à l’ouest avec la cocaïne venue d’Amérique latine via le golfe de Guinée – en prélevant des « taxes » sur l’acheminement de l’héroïne venue d’Orient vers l’Europe et l’Afrique du Sud, via Cabo Delgado. Le groupe se finance aussi par donations électroniques... Face à ce péril, Mozambicains et Tanzaniens ont signé, fin 2020, un accord de coopération militaire pour s’organiser face aux djihadistes qui compteraient dans leurs rangs des Somaliens, des Congolais, des Rwandais et des Burundais, et même, fait nouveau, une centaine de Sud-Africains, preuve de l’internationalisation croissante de la menace et de son adaptation à la mondialisation. Le terrorisme islamiste : guerre psychologique et propagande par l’action Attardons-nous maintenant sur les volets idéologico-psychologiques de la stratégie des djihadistes. Selon l’universitaire américain Walter Laqueur, spécialiste de la violence politique, la stratégie du terrorisme consiste à faire de la violence et de la médiatisation qu’elle déclenche une forme de publicité gratuite, une façon de répandre l’idéologie qui anime les terroristes. La finalité de la propagande, qu’elle soit « pacifique » ou « terroriste » (« par l’action » ou « par les faits »), vise selon lui avant tout à influencer et à endoctriner, de sorte qu’il convient d’analyser le djihadisme non pas comme une idéologie, mais comme un simple outil (ou une arme) utilisé pour promouvoir et diffuser une idéologie qui, elle, peut avoir aussi des adeptes non-terroristes et institutionnels. Walter Laqueur précise que « le succès d’une opération terroriste dépend presque entièrement de l’importance de la publicité qu’elle obtient 33 ». L’objectif est d’amener l’adversaire-mécréant-apostat à penser qu’il est en position de faiblesse radicale (« à armes égales, celui qui aime la mort l’emporte sur celui qui la craint ») et qu’il a par conséquent intérêt à se rendre de façon anticipatoire afin d’être épargné dans le futur (en cessant de blasphémer, de réclamer l’intégration des musulmans, de critiquer l’islam, en acceptant l’application graduelle de la charia, et en combattant toujours plus « l’islamophobie » à mesure que le djihadisme frappe, etc.). Pour Laqueur, l’assassinat n’est donc qu’un moyen parmi tant d’autres pour faire de la propagande ou du prosélytisme politico-religieux. En latin, propaganda vient de propagare, qui signifie littéralement « ce qui doit être propagé » : le terrorisme de propagande cherche à modifier les perceptions et comportements des personnes ciblées dans une logique de propagation d’une idée-force, celle de la nécessité de se soumettre à la charia ou de se convertir, à terme, ne serait-ce que pour conjurer la « promesse du pire ». Les médias sont la « cible indirecte » privilégiée des terroristes. Les attaques djihadistes sont donc tout sauf le résultat d’une violence aléatoire, « nihiliste ». Elles obéissent au contraire à une logique et à une planification minutieuses, fruits d’une vision idéologique précise. Comme on l’a vu pour nombre de groupes djihadistes des zones sahélienne ou sud-est asiatique, il est vrai que nombre de microcellules terroristes sont des « franchisés » sui generis n’ayant presque pas de lien de subordination avec al-Qaida ou Daesh, voire des groupes autoradicalisés, des marginaux ou des bandes criminelles que les cerveaux djihadistes récupèrent par opportunité. Ces derniers ne sont jamais étrangers à la mobilisation de leurs émules, même les plus indirectes, car ce sont eux qui mettent à disposition sur le Net des « kits » de fabrication artisanale de bombes ou des appels théologiquement référencés à « tuer les mécréants de n’importe quelle manière, n’importe où et n’importe quand ». Il ne faut pas non plus sous-estimer ces messages idéologiques et mobilisation directe, même à distance, car les contenus et messages s’appuyant sur des hadiths et sur un corpus de l’islam sunnite indiscutés ont une réelle « force légitimante » et mobilisatrice. À la manière des anciens compagnons de route ou activistes favorables à l’ex-URSS, aux régimes révolutionnaires de Castro, de Mao Zedong, ou fascinés par le romantisme violent du Che, sans oublier les Allemands et Européens subjugués par le III e Reich, ceux qui vont commettre des carnages terroristes répondent aux appels idéologiques lancés par des professionnels de la propagande, eux-mêmes appuyés par des entités, partis ou États ayant des objectifs géopolitiques. Dans le cadre de leurs textes de référence qui circulent dans la « djihadosphère », comme le fameux « appel mondial à la résistance islamique », de l’idéologue Abou Moussab al-Souri, les « fanatiseurs » professionnels mobilisent à distance des personnes qui ne leur demandent pas leur avis hiérarchique pour passer à l’acte par la suite, puisqu’ils y sont invités (« djihadisme d’inspiration »). Ce manque de lien pyramidal et hiérarchique ne veut pas dire que les futurs terroristes recrutés sur le Web ou en prison sont « moins islamistes » que ceux recrutés par des imams dans des lieux de culte officiels. Réduire le terrorisme djihadiste à la réalité asociale de délinquants ou déséquilibrés fanatisés via des réseaux sociaux, dans des milieux carcéraux ou des banlieues problématiques (voir supra) pour en conclure qu’il n’y a « rien d’islamique », ne permet ni de comprendre les objectifs du djihadisme, ni de prouver que ce terrorisme n’aurait « rien à voir avec l’islam ». Les musulmans libéraux, soufis ou réformistes issus des élites sécularisées, qui dénoncent au péril de leur vie ou de peines de prison lourdes la pénalisation du blasphème, un des piliers de la charia et de sa « violence sacrée », dans les pays musulmans ou ailleurs, ne sont pas plus « islamiquement corrects » que ceux qui veulent imiter les compagnons du Prophète en embrassant le djihad conquérant. Les cerveaux djihadistes recrutent des délinquants pour leur aptitude à la violence Les entités et gourous salafistes-djihadistes, qui recrutent sur le Web, dans les prisons, les mosquées ou parmi des fratries de voyous des cités, savent canaliser « l’expérience » des malfrats dont la violence est utile, à l’instar des imams radicaux de l’école coranique de Zarka qui formèrent le voyou Abou Moussa al-Zarqaoui 34 , devenu plus tard chef d’al-Qaida en Irak et précurseur de l’État islamique. Zarqaoui avait été repris en main, sur demande de sa mère, par un imam fanatique, al-Maqdissi, lequel condamnera bien sûr Daesh après avoir fanatisé ses monstres, notamment entre l’Afghanistan et l’Irak... Le continuum est là. Les spécialistes de la terreur savent bien que, pour créer une « mentalité terroriste », une organisation structurée au fort rayonnement médiatique et idéologique, il faut faire converger trois éléments complémentaires : le niveau individuel, exécutif (« main-d’œuvre »), qui contribue à créer la motivation opérationnelle et le dévouement nécessaire sur un théâtre d’opérations ; le noyau terroriste (souvent fait de fratries closes ou minisociétés sectaires coupées du monde extérieur et des familles, que Pierre Conessa appelle « cellules souches »), qui assure la phase d’endoctrinement et la formation opérationnelle ; enfin l’organisation mère, qui donne le ton, conçoit la stratégie globale, crée les mécanismes de légitimation théocratique légalisant la violence barbare, et déculpabilise les tueurs en les déresponsabilisant. On retrouve ici les conclusions des expériences des sociopsychologues américains Milgram et Zimbardo qui ont prouvé la puissance de l’autorité hiérarchique et morale dans l’incitation à l’acte sadique violent 35 . L’acte terroriste ne se réduit pas aux commandos suicide spectaculaires lancés par les organisations terroristes. Il est en ce sens bien plus qu’une menace sécuritaire, car il est un moteur, un accélérateur de l’histoire politique. L’effet à la fois « convaincant » et dissuasif de la terreur a des conséquences immédiates sur les consciences sidérées. Le dernier exemple en date, après l’attentat de Charlie Hebdo, a été la décapitation de l’enseignant Samuel Paty (attentat de Conflans-Sainte-Honorine, du 16 octobre 2020) par un djihadiste tchétchène suite à une campagne de diabolisation à la fois digitale, associative et « institutionnelle » (relais dans des mosquées et associations légales proches des Frères musulmans). La « promesse du pire » des terroristes adressée aux « blasphémateurs » est en soi un message hautement persuasif. Elle a déjà fait réfléchir nombre de caricaturistes, d’intellectuels et même de décideurs politiques. Le terrorisme peut ainsi être analysé, d’un point de vue stratégique, comme la façon la plus fulgurante de modifier les comportements d’un camp adverse et de diffuser une idée conquérante, en l’occurrence le suprémacisme panislamiste. En ce sens, la dissuasion extrême provoquée par les massacres perpétrés par les djihadistes profite plus qu’on ne le pense aux islamistes non terroristes, car ceux-ci savent, en dépit de leur dénonciation formelle des attentats, que l’on ne prendrait jamais autant au sérieux leurs demandes de lutter « contre l’islamophobie » si les « infidèles » n’avaient l’épée de Damoclès djihadiste au-dessus de leur tête... L’efficacité de la stratégie de l’intimidation Depuis des décennies, dans les pays musulmans, jadis bien plus laïques et où la liberté de croire ou de ne pas croire était plus présente, la « stratégie de l’intimidation » a associé les pressions des islamistes politiques aux menaces violentes des islamistes terroristes. Les concessions octroyées par les dirigeants nationalistes en place à ceux qui voulaient introduire la charia dans l’ordre légal ont toujours été octroyées pour tenter de faire baisser la violence et « calmer la colère des djihadistes ». En Iran, la révolution islamique de l’ayatollah Khomeiny s’est faite dans le sang avant de devenir texte de loi. Depuis les années 1950, les Frères musulmans égyptiens ont fait assassiner des « apostats » et mis au pas des villages entiers par leurs milices avant de conquérir les urnes lors du printemps arabe en 2012 une fois abouti le processus de réislamisation. Ils n’ont d’ailleurs été stoppés par la suite que par une violence plus dissuasive que la leur, celle du nationalisme et du coup d’État militaire qui a porté au pouvoir le réformiste Abdel Fattah al-Sissi en juillet 2013. En Algérie, les assassinats de nombreux intellectuels et journalistes athées ou laïques et la guerre civile extrêmement meurtrière des années 1990 qui a opposé la junte au pouvoir au FIS et au GIA ont précédé l’islamisation des lois favorisées dans les années 1990-2000 par le président Bouteflika, artisan d’une « Concorde civile ». Exemple plus récent, mais plus lointain, au Bangladesh, jadis pays réputé assez modéré et laïque, le parti islamiste Hefazat-e-Islam, qui a adressé au gouvernement, en 2013, une demande de réislamisation des lois comportant la pénalisation du blasphème, a obtenu gain de cause en 2016 à la suite d’une vague d’assassinats commis entre autres afin d’exiger la peine de mort pour les blasphémateurs. C’est ainsi qu’en trois années, une quarantaine d’intellectuels laïques (blogueurs, journalistes, professeurs...) ont été assassinés après avoir été menacés et ciblés 36 dans le pays. Dans la perspective des élections de 2019, la Ligue Awami au pouvoir a finalement cédé, au nom d’une pax islamica, aux requêtes du Hefazat-e-Islam. Celles-ci ont été d’autant plus prises au sérieux qu’elles ont été objectivement « appuyées » par l’effet d’intimidation et de sidération des actions terroristes. Le Hefazat-e-Islam a même réussi à obtenir la limitation des représentations des êtres humains puis à faire interdire les exercices physiques dans les écoles pour les jeunes filles. Le continuum djihadisme-islamisme et le chantage à l’islamophobie La raison pour laquelle les pôles de l’islam officiel n’ont pas profité de l’occasion funeste des attentats terroristes pour opérer un aggiornamento, pourtant réclamé depuis des décennies par les intellectuels musulmans réformistes et modérés, réside dans le fait que ces pôles reconnus comme interlocuteurs légitimes par les États occidentaux et les Nations unies se distinguent plus des djihadistes par les moyens que par les fins, qui sont en fait les mêmes : l’application de la charia et la restauration du califat. De fait, la réunification de l’oumma islamique au nom d’un projet néo-impérial califal demeure l’objectif affiché des Frères musulmans, de l’OCI, dont sont membres cinquante-sept États musulmans, et d’autres grandes institutions panislamiques mondiales. Ces pôles institutionnels de l’islamisation qui dénoncent verbalement la violence djihadiste tout en affirmant qu’elle n’a « rien à voir avec l’Islam » – et donc en niant son existence même – pratiquent de leur côté une ingérence politique dans les affaires de tous les pays du monde où vivent des musulmans, sous couvert de défense de l’islam et des musulmans « persécutés », se nourrissant aussi d’une « islamophobie » souvent imaginaire. Bien que divisés, ces grands vecteurs de l’islamisation planétaire 37 ambitionnent, sous prétexte de « défendre la religion », de contrôler l’oumma islamique dans le monde et en Occident. L’ouverture de nos sociétés pluralistes, rendues perméables par une vision sans-frontiériste et multiculturaliste béate de la mondialisation, est perçue par les forces islamistes radicales comme une vulnérabilité et une faille dans laquelle le prosélytisme politico-religieux islamiste progresse sans rencontrer trop d’obstacles. C’est à l’aune de ce constat que l’une des références suprêmes des Frères musulmans et de nombreux salafistes « modérés », Youssef al- Qardaoui, a décrété il y a des années que l’Europe, habituellement assimilée au « territoire de la guerre » (dar al- harb), est devenue une terre de « l’annonce » (dar al-dawà) et du « témoignage » (dar as-shahada) car ne faisant plus d’obstacle au prosélytisme islamique. De ce fait, pour un musulman, y vivre serait « licite » pour Qardaoui, dès lors que la société d’accueil permet de vivre en conformité avec la charia. La stratégie du « séparatisme islamiste », déplorée par le président français Emmanuel Macron, et combattue par sa loi visant à « renforcer les principes républicains », pousse les musulmans à ne pas s’intégrer aux mœurs locales « impies » et laïques, au nom d’un « droit à la différence » et d’un antiracisme dévoyés. Pour illustrer cette stratégie de « désassimilation », rappelons les propos prononcés, en 2008, par Recep Tayyip Erdoğan, qui répondit à la chancelière Angela Merkel lorsque celle-ci réclama l’intégration des Turcs musulmans d’Allemagne, pourtant présents depuis des générations mais qui forment toujours une communauté à part : « l’intégration est un crime contre l’Humanité 38 ». Ce processus de « ghetto volontaire » se nourrit de la contagion paranoïaque, qui permet aux islamistes de pousser les musulmans – pris ainsi idéologiquement au piège de la victimisation – à se radicaliser et à se ranger progressivement, par « réaction », sous la bannière protectrice et l’ordre sans frontière de la charia. L’objectif panislamiste et sécessionniste poursuivi par les pôles de l’islamisme mondial, djihadistes ou institutionnels, est combattu, certes, par les États musulmans nationalistes (Émirats arabes unis, Égypte, Jordanie, Algérie, Syrie des Assad, Kazakhstan), qui craignent ce nouvel impérialisme théocratique tourné contre leur souveraineté, mais appuyé par le Qatar, la Turquie néo-ottomane d’Erdoğan, le Pakistan, les Frères musulmans, etc. Toutefois, en dépit des rivalités opposant États et pôles islamistes entre eux dans la lutte pour le leadership islamique mondial, ces pôles ont réussi à rendre une partie des communautés musulmanes d’Occident hostiles à leurs pays de naissance ou d’accueil, perçus comme « mécréants », « pervers », et « hostiles aux musulmans ». La force mobilisatrice des pôles violents et non-violents du totalitarisme islamiste consiste à miser sur la « paranoïsation » qui permet de motiver le musulman qui se sent « exclu » à ne plus se conformer aux mœurs et ordres infidèles « ennemis de l’islam ». Ces foyers potentiels de communautarisme « désassimilé » sont autant de viviers dans lesquels les djihadistes peuvent puiser. La vulnérabilité des sociétés démocratiques et multiculturelles Dans nos sociétés occidentales ouvertes, tout comme au Mozambique, au Nigeria, ou en Inde, le but est de polariser la société en opposant les musulmans aux non-musulmans, d’où le fait que les pays les plus souvent et massivement frappés par les djihadistes sont, premièrement, les pays d’islam et, deuxièmement, les pays multiculturels abritant de fortes communautés musulmanes. La stratégie victimaire de « paranoïsation » fonctionne en plein, tant que des non-musulmans continuent à « dominer » et donc « humilier » les « vrais croyants ». Nos sociétés culpabilisées tombent ainsi dans le piège lorsque leurs dirigeants, leurs intellectuels et leurs médias expliquent la violence islamo-terroriste par la dénonciation de « l’oppression » des musulmans, l’exclusion des immigrés, « l’humiliation des Palestiniens » ou l’islamophobie, qui serait le pire des néoracismes et dont l’interdiction du voile ou de la burqa serait la manifestation la plus concrète. En conséquence, nombre de musulmans radicalisés ou djihadistes justifient eux aussi leur franchissement du Rubicon terroriste en affirmant « réagir » à la « persécution » dont ils feraient l’objet en Occident. Ainsi, Émilie König, la célèbre recruteuse française de Daesh partie rejoindre le califat en Syrie en 2012 puis capturée par les Forces démocratiques kurdes (FDS) de Syrie, début janvier 2017, a assuré, quand elle s’est « désavouée » de la France, que c’est la « persécution » des musulmanes interdites de se couvrir dans l’Hexagone qui la motiva. D’où la dangerosité des théories victimaires véhiculées tant par des djihadistes que par des pôles institutionnels de l’islamisme. Ainsi, l’ancien secrétaire général de l’ONU, Ban Ki-Moon, déclara-t-il en 2009 que « le racisme peut aussi s’exprimer de manière moins formelle comme la haine contre un peuple ou une catégorie particulière comme l’antisémitisme, par exemple, ou plus récemment l’islamophobie 39 ». Une illustration plus récente de ce processus de la « stratégie de l’intimidation » par la « paranoïsation » a été offerte, en octobre 2020, à la suite des deux attentats terroristes survenus en France, à Conflans-Sainte-Honorine (décapitation de Samuel Paty, 16 octobre) et à Nice (trois fidèles égorgés dans la basilique Notre-Dame, 29 octobre), lorsque, au lieu de présenter ses condoléances, comme d’autres grands chefs d’État du monde, le président turc Recep Tayyip Erdoğan a dénoncé « l’islamophobie » de la France républicaine et de son homologue Emmanuel Macron, accusés de « persécuter les musulmans » dans le double contexte du projet de loi contre le « séparatisme islamiste » et de la défense de la liberté de caricaturer dans la presse française. Sans surprise, des pays mentionnés plus haut et réputés amis de l’Occident, comme le Qatar, le Koweït ou le Pakistan, structurellement et idéologiquement proches des Frères musulmans, mais aussi l’université sunnite d’Al-Azhar (Égypte), pourtant réputée modérée, ont emboîté le pas au néosultan en dénonçant vigoureusement l’islamophobie française et occidentale. C’est ainsi que Fahrettin Altun, le directeur de communications à la présidence turque, a affirmé que l’islamophobie gauloise rappellerait « la diabolisation des juifs européens dans les années 1920 » ! Au Pakistan, le Premier ministre Imran Khan a reproché au Président français « d’attaquer l’Islam ». Ces accusations miroirs sont intéressantes à analyser de la part de dirigeants de pays musulmans qui persécutent leurs minorités juives, chrétiennes, hindouistes et chiites... Dans la même logique, l’OCI, qui réunit cinquante-sept pays musulmans, a déploré « les propos de certains responsables français [...] susceptibles de nuire aux relations franco-musulmanes ». Cette adresse insinue que la violence djihadiste qui a décapité Samuel Paty ne serait qu’une réaction à une « provocation » initiale des « islamophobes ». Ce réflexe d’exonération a posteriori de la violence chariatique est une constante de l’OCI et des grands pays et institutions islamiques, Arabie saoudite, Qatar, Turquie et Pakistan en tête. D’où la tentative des pays de l’OCI de faire adopter, depuis 2010, par les Nations unies, des résolutions condamnant la « diffamation des religions ». Ce concept, qui confirme la théorie « communautarienne » des relations internationales de Hughes, vise à faire accréditer l’idée que la critique de l’islam ou le blasphème seraient des formes de « racisme » envers les musulmans. Et dans tous les textes et déclarations de l’OCI et d’autres « institutions » islamiques mondiales (Isesco, Congrès islamique mondial, Ligue islamique mondiale) relatifs au terrorisme islamiste, le fait même de désigner le terrorisme islamiste est dépeint comme une « insulte » envers l’islam et les musulmans. D’où la proposition de bannir tout terme invoquant l’islam et de s’en tenir à l’expression « extrémisme violent », édulcoration adoptée par les Nations unies, l’Union européenne, l’OSCE et le Conseil de l’Europe. Le 25 novembre 2020, le président turc Recep Tayyip Erdoğan a logiquement utilisé la tribune de l’OCI, dans le cadre d’une réunion virtuelle de l’un des comités permanents, pour fustiger la liberté d’expression et de presse en matière d’islam dans la France et l’Europe « islamophobes » : « Certains politiciens européens [...] poursuivent une politique discriminante et haineuse envers les musulmans, cibles de la même campagne de haine qui a visé les Juifs d’Europe avant la Seconde Guerre mondiale. Nous devons combattre [...] le racisme culturel qui a englobé l’Occident. » En réalité, le Président turc et ses homologues, ou autres instances islamiques mondiales, sont parfaitement conscients du fait que les musulmans en France et en Occident sont libres, et bien plus que dans la quasi-totalité des pays islamiques, non démocratiques. La reductio ad hitlerum est utilisée ici de façon rhétorique par des leaders qui ne culpabilisent pas d’être intolérants et même judéophobes mais qui savent que l’Européen culpabilise pour ce qu’il ne fait plus depuis longtemps. Erdoğan a habilement profité de la campagne mondiale de diabolisation de la France et des appels aux boycotts qui en ont découlé pour tancer en fait le seul pays européen qui a contrecarré l’expansionnisme turc croissant en Méditerranée orientale (en plus de la Grèce et de Chypre, voir infra). La géopolitique est une démarche holistique, et cet exemple démontre que « tout est lié ». 1. Qui privilégie l’appartenance culturelle et la communauté face à l’individu. 2. Voir Barry B. Hughes, Continuity and Change in World Politics. Competing Perspectives, 3 e éd., Upper Saddle River, NJ, Prentice Hall, 1997. 3. Voir Philippe Braillard, Théories des relations internationales, Paris, Presses universitaires de France, 1977, p. 12. 4. Mohammad-Reza Djalili, Diplomatie islamique, Paris, Presses universitaires de France, 1989. 5. Daniel Colard, Les Relations internationales, p. 52-53. En fait, il existe une troisième catégorie, le dar al-ahd, situation exceptionnelle de trêve entre monde non musulman et monde musulman, le plus célèbre exemple étant la première communauté des fidèles (oumma) qui vivait en paix au royaume chrétien d’Abyssinie (Éthiopie) face aux ennemis communs païens. 6. Gilles Kepel, Le Prophète et Pharaon. Aux sources des mouvements islamistes, p. 54-55. 7. Sayyid Qutb, in ibid., p. 54. 8. Pays du Golfe, Pakistan ; République islamique iranienne ; Frères musulmans ; Ligue islamique mondiale ; Organisation de la coopération islamique ; etc. 9. Ce courant hanbalite salafiste, quatrième école juridique officielle de l’islam (madhab) sunnite, qui ne peut être réduit à une « hérésie », a été porté par deux penseurs fondamentaux du hanbalisme constamment cités par les djihadistes : Ibn Taymiyya (1263-1328), qui éleva le djihad au rang de sixième pilier de l’islam face aux mécréants mongols, puis Muhammad ibn ‘Abd al-Wahhāb (1703-1792), à l’origine du « wahhabisme », école sunnite officielle du royaume saoudien, gardien des deux Lieux saints (al-Haramain) de l’islam : La Mecque et Médine. 10. Benyettou citait aussi beaucoup un « savant » salaf des XIV-XV e siècles, Ibn Hajar al-Asqalani, auteur du traité des hadiths Boulough al-Maram, qui aborde notamment la question du djihad. 11. Voir rapports du CAT, 2017, 2018 et 2019, http://cat-int.org/. 12. CAT, Compte-rendu de la conférence internationale sur le terrorisme : « Quelles menaces et quels enjeux après la chute du califat ? », 7 novembre 2019. 13. Voir son interview accordée à El Mundo, 31 août 2017. 14. Compte-rendu de la conférence internationale sur le terrorisme, op. cit. 15. Alexandra Gonzalez et Ambre Lepoivre, « Près de 130 djihadistes français vont être rapatriés de Syrie en France », Le Monde, 29 janvier 2019. 16. Lucie Valais, « Terrorisme : 240 jihadistes de retour en France depuis 2012, la majorité en prison », RTL, 27 octobre 2017. 17. Voir Alexandre Del Valle, La Stratégie de l’intimidation. Du terrorisme jihadiste à l’islamiquement correct, Paris, L’Artilleur, 2018, voir dans ce livre les annexes consacrées aux textes sacrés islamiques relatifs à la ruse de guerre. 18. Abou Bakr Naji, Idārat at-Tawaḥḥuš. Akhṭar marḥalah satamurru bihā l ‘ummah ; Management of Savagery. The Most Critical Stage Through Which the Islamic Nation Will Pass, 2007, 250 p. 19. International Crisis Group, « COVID-19 and Conflict: Seven Trends to Watch », 24 mars 2020. 20. « Syrie : 37 militaires du régime tués dans une attaque djihadiste dans l’Est », Le Figaro, 30 décembre 2020. 21. « Dix-neuf combattants prorégime tués dans une attaque de l’EI », L’Orient-Le Jour, 3 février 2021. 22. « Terrorisme. Daech revient sur le devant de la scène en Syrie », Courrier international, 12 janvier 2021. 23. Scott Atran, « Daech n’a pas commandé les attentats de Paris et Bruxelles », Le Soir plus, 20 octobre 2017. 24. Cité in Romain Caillet et Pierre Puchot, Le combat vous a été prescrit, Stock, 2017, p. 233-234. 25. Il est né dans la ville irakienne de Tal Afar (soixante-dix kilomètres à l’ouest de Mossoul), enclave turkmène entre chiites et sunnites, ces derniers ayant fourni jadis à Saddam Hussein maints cadres. Et lorsque Saddam commença, face aux Américains, à mobiliser des réseaux salafistes, les sunnites de Tal Afar, surreprésentés, alimenteront l’EI. 26. Le GSIM regroupe Ansar Dine, des branches d’Aqmi, des combattants de l’ex-Mujao et du MNLA berbère du Mali. 27. Amnesty International, « The Battle of Marawi: Death and destruction in the Philippines », rapport, 17 novembre 2017. 28. Lead inspector general, « Operation Inherent resolve and Operation Pacific Eagle – Philippines », report to the United States Congress, 1 er avril 2020-30 juin 2020. 29. « En Malaisie, l’islam conservateur progresse », Le Monde, 21 juillet 2017. 30. Alexandre Del Valle, La Stratégie de l’intimidation, op. cit. 31. Dès le XVIII e siècle, un « protodjihadisme » a sévi en Afrique subsaharienne-sahélienne : l’État théocratique du Fouta-Djalon en Moyenne- Guinéeau XVIII e siècle ; l’Empire peul du Macina au Mali entre 1818-1862 ; l’empire théocratique de Sékou Amadou Barryi, puis de Sékou Amadou, sans oublier au Nigeria l’empire de Sokoto au XIX e siècle. 32. Et inspirés par un religieux kenyan lié aux attentats antiaméricains de Nairobi et Dar es-Salam en 1998, Aboud Rogo Mohammed, ont ouvert leurs madrasas en Tanzanie et au Mozambique. 33. Walter Laqueur, « The Futility of Terrorism », Harper’s Magazine, vol. 252, n o 1510, mai 1976, p. 69-120. 34. Dans les années 1980, la mère d’Abou Moussa al-Zarqaoui, inquiète que son fils soit délinquant drogué et alcoolique, l’envoie dans une école coranique de Zarka (sa ville natale en Jordanie) pour le « remettre dans le droit chemin ». Il en ressortira très pieux mais ultraradical puis se retrouvera à la fin des années 1980 dans les mains de l’imam djihadiste d’al-Qaida al-Maqdissi, qui l’emmènera en Afghanistan. 35. Tout comme l’expérience célèbre de Milgram, celle de Zimbardo, psychologue américain, dite « expérience de Stanford », montre les mécanismes de l’obéissance à une institution et prouve que n’importe qui peut commettre des actes atroces en situation de légitimation par l’autorité de référence. 36. Un rapport du Bangladesh Hindu Buddhist Christian Unity Council de 2016 comptabilise 1 471 incidents violents contre des minorités, contre 262 en 2015. Les atrocités ont culminé le 1 er juillet 2016, lors de l’attaque d’un café-restaurant de Dacca qui a fait 22 victimes, dont 18 étrangers. 37. OCI ; Ligue islamique mondiale ; Frères musulmans ; autres associations pilotées par des États comme la Turquie néo-ottomane d’Erdoğan, le Pakistan coparrain d’al-Qaida et créateur des talibans afghans, le Qatar, protecteur des Frères musulmans, et l’Arabie saoudite, promotrice du wahhabisme-salafiste. 38. « L’assimilation est un crime contre l’humanité », déclara Erdoğan, à Cologne, le 10 février 2007, devant 16 000 Turcs. 39. Delphine Roucaute et Madjid Zerrouky, « L’islamophobie est-elle punie par la loi ? », Le Monde, 20 janvier 2015. CHAPITRE VIII Prolifération nucléaire et aléas du désarmement « Les États émergents d’Asie se sont naturellement tournés vers les sciences de l’atome dans le même temps que s’en détournaient les “anciennement industrialisés” en Occident [...]. La Russie, la Chine, l’Inde, le Pakistan, la Corée du Nord possédant le savoir de l’“atome militarisé”. La Chine doit à Hiroshima une révélation : séculairement assurée d’une civilisation n’ayant rien à envier à l’extérieur, force lui fut de constater que c’est la science occidentale et non la sienne qui a maîtrisé la désintégration de la matière. Dans un tel environnement, on saisit les ressorts de la démarche iranienne... » Général Pierre Marie Gallois Des origines du nucléaire militaire à l’échec des traités de désarmement et de non-prolifération La prolifération nucléaire récente, qui concerne surtout la Corée du Nord et l’Iran, est devenue possible grâce à l’effacement des frontières, processus qui a facilité la mondialisation des technologies nucléaires et balistiques qui devaient être au départ strictement contrôlées par des États membres du club privilégié des détenteurs de ces armes dévastatrices. Un exemple édifiant de cette mondialisation technologique hors contrôle a été offert ces dernières années par l’évolution de l’Ukraine. Après la dislocation de l’URSS, ce pays a vendu clandestinement des technologies balistiques à la Corée du Nord, profitant d’un contexte de chaos et de paupérisation accentué par le conflit armé dans le Donbass qui a démarré en 2014 et dure encore. Le 16 juillet 1945, le monde entrait dans l’ère nucléaire avec la première explosion de la bombe atomique américaine dans le désert du Nouveau-Mexique, à Alamogordo. Non sans cynisme, les Américains n’ont guère tardé pour passer du stade de l’expérimentation à celui de l’application, puisque vingt jours plus tard, le 6 août 1945, le bombardier Enola Gay larguait « Little Boy » et ses 15 kt sur Hiroshima ; trois jours encore, et c’était au tour de Nagasaki. « L’arme de la terreur » n’était plus une fiction. À la fin des années 1930, des savants comme Albert Einstein avaient émis l’hypothèse que l’Allemagne hitlérienne pourrait produire dans un délai assez bref une bombe basée sur le principe de l’énergie de fission d’un atome lourd, comme le plutonium ou uranium. C’est dans ce contexte que le gouvernement Franklin Roosevelt lança le spectaculaire programme Manhattan 1 , dans lequel les meilleurs experts du monde occidental, associés à de grandes entreprises (amorce du désormais célèbre « complexe militaro-industriel »), et qui devait aboutir à Alamogordo, puis, à Hiroshima... La plupart des observateurs évoquaient à ce propos la naissance du concept de dissuasion, or il n’en était rien : Little Boy était tout simplement destiné à faire capituler l’armée nippone et, plus discrètement, à freiner les ambitions de « l’allié » soviétique car I’armée Rouge progressait rapidement. Quant au bombardement atomique tout aussi massif de la ville de Nagasaki, trois jours plus tard, qui était en réalité inutile pour atteindre l’objectif de la capitulation, déjà acquise, il s’explique par le fait que la bombe d’Hiroshima est une bombe à l’uranium tandis que celle de Nagasaki était au plutonium, cette dernière avait été fabriquée par un lobby industriel concurrent du précédent et désirant faire, à son tour, une « expérimentation »... À partir de cette date, le « club nucléaire » va se développer lentement mais régulièrement. Durant quatre ans, Washington conserve le monopole de la détention de l’arme atomique. Moscou réalisera sa première expérience dans le désert du Kazakhstan en août 1949. La Grande-Bretagne (sous franchise américaine) la réalise à son tour en novembre 1952, suivie de la France, en février 1960 (au Sahara, alors encore français), de la Chine de Mao, en octobre 1964, dans le Xinjiang, de l’Union indienne, le 19 mai 1974, d’Israël en 1981, du Pakistan, le 13 mai 1998, et de la Corée du Nord, en 2006. Pour résumer, ces 9 pays sont les seuls qui possèdent l’arme nucléaire aujourd’hui. Au total, de 1945 jusqu’à nos jours, il y a eu plus de 2 000 essais nucléaires réalisés 2 . Quant à la spécificité de l’arme atomique : rappelons simplement que l’explosif présente plusieurs caractères originaux, dont une puissance de destruction colossale pour un faible volume, comparativement aux armes conventionnelles. La miniaturisation de l’arme nucléaire n’a guère cessé de croître au cours des années, permettant aussi de réduire le gabarit des véhicules porteurs et de multiplier, sur un même vecteur, le nombre d’ogives. Les missiles balistiques présentent des caractéristiques quasi révolutionnaires : la vitesse était grosso modo de l’ordre de 1 000 km/h pour un bombardier « banal ». Elle peut désormais atteindre 25 000 à 30 000 km/h, avec les conséquences que l’on imagine en matière de temps de réaction. Quant à la portée, les missiles intercontinentaux peuvent atteindre, depuis un demi-siècle, des cibles situées de 14 000 à 15 000 km, ce qui signifie tout simplement qu’un des pays possédant cette arme peut menacer n’importe quelle région du globe. De plus, alors qu’à l’aube des années 1970, la marge d’imprécision d’un Minuteman 3 était de 2,4 km, elle n’est aujourd’hui que d’environ 200 m... Ces précisions permettent de mieux comprendre pourquoi la République islamique iranienne souhaite acquérir le feu atomique et pourquoi la Corée du Nord n’y a pas renoncé : cette dissuasion maximale est une « assurance-vie » pour tout régime qui se trouve dans le collimateur des États-Unis... La Corée du Nord n’a en effet jamais subi le sort de l’Irak ou de la Libye, se plaît à dire le dictateur Kim Jong-un... Les conséquences géopolitiques de l’atome Au-delà des conséquences strictement stratégiques, l’apparition puis le développement de l’armement nucléaire ont entraîné un certain nombre de bouleversements, notamment dans la hiérarchie et le poids des facteurs géostratégiques des six critères majeurs pris en compte depuis des siècles par les États-majors, à savoir : la localisation : toutes notions de distance perdent leur signification à l’heure des armes de nouvelle technologie nucléaire et des missiles intercontinentaux ; les dimensions du champ de bataille, qui changent complètement d’échelle par rapport aux territoires à conquérir, la puissance de destruction de la charge atomique pouvant raser des villes entières. Une bombe nucléaire Tsar 4 , par exemple, a une zone de déflagration d’environ 117 km², de quoi raser Paris et une partie de sa banlieue d’un coup 5 ! Et l’on ne raisonne plus en délais de quelques jours, mais en une poignée de minutes... ; les conditions climatiques : la qualité de ces armes leur permet d’être utilisées dans n’importe quelle condition, comme se plaisait aussi à le répéter Pierre Marie Gallois, « le missile atomique ignore la pluie, la neige, la glace, la tempête, le brouillard ». le poids de la logistique, majeur dans le cadre des guerres conventionnelles, est très allégé dans l’optique d’un conflit atomique ; le contexte « industriel » : le nucléaire est friand, par essence, de techniciens hautement qualifiés et de budgets de R&D élevés, mais peu gourmand en hommes, contrairement aux arsenaux d’armements classiques ; le nombre de combattants : l’époque des gros bataillons est révolue à l’ère nucléaire ; une flotte de 4 ou 5 SNLE 6 suffirait largement à détruire n’importe quel État du globe. Cependant, pour chaque gouvernement, la menace que représentent ces armes pour la sécurité collective passe après la défense de leurs propres intérêts. La Chine, la Russie ou l’Iran y voyant un moyen de contrer les Américains en renforçant leur influence dans diverses zones du globe, notamment au Moyen-Orient. Bouleversement des hiérarchies militaires étatiques classiques La plupart des spécialistes s’accordent depuis des lustres à établir une hiérarchie des États-nations. En 1914, à la veille de la Grande Guerre, la France et le Royaume-Uni, les deux grands empires coloniaux, précédaient le Deuxième Reich et la Russie tsariste, suivaient les États-Unis, le Japon ou les empires austro-hongrois et ottomans (voir carte n o 9). Ce classement s’est vu modifié maintes fois au gré des différentes guerres. L’Allemagne nazie était en tête à la veille de la Seconde Guerre mondiale, pour passer ensuite au monde bipolaire avec les États-Unis et l’URSS et arriver aujourd’hui avec les puissances que l’on connaît : les États-Unis suivis de la Chine et de la Russie, après lesquels viennent la France, le Royaume-Uni, le Japon et l’Inde. Les classements traditionnels des puissances se basent sur divers critères quantitatifs comme le nombre de soldats, la quantité d’armement ou autre, qui, bien que globalement justes, sont assez discutables. En effet, aujourd’hui on distingue plutôt certaines catégories de hiérarchie de puissances : les superpuissances qui sont, par définition, susceptibles de préserver leur territoire national par la « sanctuarisation nucléaire » en dissuadant l’adversaire potentiel d’une agression grâce à un arsenal de forces conventionnelles telles que leur capacité d’intervention extérieure est très élevée. Cette définition pouvait s’appliquer avant 1991 aux deux grands de l’époque. Elle ne concerne plus, pour le moment, que les États-Unis ; ensuite les autres membres du club nucléaire (les huit « partenaires ») composé de : la Russie, la France, le Royaume-Uni, la Chine, l’Inde, Israël, le Pakistan et la Corée du Nord, qui disposent de la maîtrise de l’armement nucléaire et, intégrant dans leurs stratégies le « pouvoir égalisateur de l’atome » (Gallois), peuvent se sentir sanctuarisés, ceux-ci n’ont cependant pas ou plus la capacité de jouer aux gendarmes du monde et ne peuvent évoquer l’utilisation éventuelle de leur arsenal nucléaire que si leurs intérêts vitaux sont menacés ; et enfin les « Exclus de l’arme atomique », catégorie désignant tous les autres membres de l’ONU qui, pour des raisons diverses, ne possèdent pas l’arme nucléaire. Le « club nucléaire » En 2020, neuf États-nations (voir supra) possèdent l’arme nucléaire, avec un poids certes variable, même si l’important ici n’est pas quantitatif, mais tout simplement d’en disposer ou non (« pouvoir égalisateur »). Soulignons tout d’abord qu’il existe deux catégories de membres du club : ceux qui tendent à réduire leurs armements nucléaires, à savoir les États-Unis, la Russie, et, sur une plus petite échelle, le Royaume-Uni et la France ; et les autres, a contrario, qui ont engagé un processus d’augmentation, même modeste, de leurs capacités en la matière : la Chine, bien sûr, mais aussi l’Inde, le Pakistan, Israël et la Corée du Nord. Revenons sur le statut et l’état des lieux nucléaires de chacun des membres du « club des 9 », par ordre d’entrée en scène : 1) Leader incontesté en matière de nucléaire militaire, les États-Unis possèdent environ 5 800 ogives nucléaires à ce jour 7 (dont 2 300 « en attente de démantèlement ») après en avoir eu plus de 25 000 pendant la guerre froide, avec un budget pour la recherche et le maintien de leur arsenal nucléaire de 35,4 milliards de dollars en 2019, soit une augmentation de 20 % par rapport à 2018. Leur arsenal est actuellement déployé sur 19 bases, dont 5 dans des pays européens membres de l’Otan (l’Allemagne, la Turquie, l’Italie, la Belgique et les Pays- Bas) et composé d’une centaine d’appareils aériens, de 450 missiles intercontinentaux et d’une composante sous-marine (2/5 de la force de frappe américaine) de 14 SNLE et 50 sous-marins lance-missiles de croisière. 2) La Russie possède 6 372 ogives pour un peu moins de 400 missiles intercontinentaux 8 avec 78 bombardiers et 13 SNLE patrouillant dans le Pacifique Nord, au large du Japon, dans l’océan Arctique et au sud. Mais l’autre fer de lance de la puissance de la Russie demeure ses forces nucléaires tactiques pour l’essentiel implantées sur les frontières des ex-démocraties populaires, face à l’Otan, et sur la rive de l’Amour, face à son voisin chinois 9 . 3) Le Royaume-Uni dispose aujourd’hui de 195 ogives 10 , dont 4 SNLE armés de Trident. Depuis 1992, tout en confirmant son engagement à n’utiliser l’arme atomique qu’en riposte à une attaque nucléaire, le Royaume-Uni a abandonné sa composante aérienne et n’a donc plus que sa force sous-marine. Autre originalité de la Grande- Bretagne, eu égard à la genèse de ses forces nucléaires : le principe de « double clé », qui suppose l’autorisation préalable de Washington quant à l’utilisation en seconde frappe de ses forces. Plus qu’un symbole, les missiles britanniques sont aujourd’hui stockés dans la base américaine de Kings Bay, en Géorgie. 4) La France, troisième puissance nucléaire du globe, dispose de 290 ogives. Sa capacité de dissuasion repose sur 2 composantes, ses forces aériennes (Mirage, Rafale) et ses forces sous-marines, notamment 6 SNA 11 , progressivement remplacés via la politique de modernisation des sous-marins d’attaque, et 4 SNLE dotés chacun de 16 missiles. 5) La Chine dispose aujourd’hui de 320 ogives nucléaires, 140 missiles balistiques ; et sa composante marine, qui était il y a peu dérisoire (un seul SNLE équipé de 12 missiles il y a dix ans), est maintenant de 6 SNLE de la classe 094 (certaines sources donnent 4 SNLE équipés de 12 Ju Lang-2 [Opex] et 2 autres pas encore opérationnels), armés de 12 missiles JL-2. Deux nouveaux sous-marins SNLE viennent d’être construits et, d’ici 2030, Pékin va se doter d’un nombre de SNLE permettant une présence simultanée de 2 à 3 sous-marins en mer, Pékin devant armer un total incompressible de 4 à 6 lots de missiles (pour tenir compte des rotations et de la maintenance), pour un total de 6 à 8 SNLE, ce qui est logique eu égard à l’importance des façades littorales du pays et de sa vocation potentielle à s’implanter dans le Pacifique. 6) L’Inde recenserait 150 ogives, une capacité de frappe potentielle suffisante pour dissuader la Chine et, a fortiori, le Pakistan. New Delhi dispose aussi d’une petite composante sous-marine, 4 SNA prévus, 3 construits et 1 opérationnel, grâce à son partenariat avec Moscou. L’Inde est le seul État avec la Chine, parmi les puissances nucléaires historiques, à poursuivre un programme de construction de SNLE. 7) Le Pakistan possède 160 ogives nucléaires, des missiles à moyenne portée, dans le cadre de sa coopération militaire avec les États-Unis, dont 1 missile de croisière (le Tigre). Le Pakistan possède ainsi des forces nucléaires susceptibles de dissuader un adversaire potentiel, et donc incontournables dans les relations qu’il entretient avec ses voisins indien et chinois. 8) Israël a longtemps disposé d’un arsenal nucléaire caché, pour des raisons politiques évidentes. L’État hébreu disposerait d’une centaine de missiles balistiques, rendant parfaitement crédible une riposte, voire une frappe préventive, en cas d’agression d’un ennemi potentiel comme l’Iran. En outre, Tel-Aviv s’est doté depuis quinze ans d’une flottille de 6 SNA Dolphin qui font d’Israël une puissance navale non négligeable au cœur de la Méditerranée. 9) La Corée du Nord a procédé, le 9 octobre 2006, à son premier tir, à la stupéfaction de maints États de la planète, y compris de son allié chinois, puis à d’autres en mars 2009, en mai 2013, en janvier 2016, le 23 avril 2016 (tir d’un missile depuis un sous-marin), en septembre 2017, et en août 2019. Tout cela en dépit de la multiplication des sanctions économiques décidées par la communauté internationale. L’État nord-coréen disposerait actuellement de 35 ogives. D’autres sources estimaient en 2016 que l’arsenal nord-coréen était entre 10 et 16 bombes atomiques, mais ce chiffre doit aujourd’hui s’élever à 20 à 30 unités 12 . La prolifération nucléaire La prolifération nucléaire reste aujourd’hui la plus grave menace pour la sécurité collective, car étant donné le nombre de nations ayant ou pouvant avoir l’arme atomique, aucun État ou institution internationale à l’heure actuelle n’est en mesure de faire accepter ses décisions ou de faire respecter les traités de non-prolifération (voir infra). À l’heure de la disparition de l’Union soviétique, et donc du système bipolaire, la Commission des Nations unies consacrée à cette question considérait officiellement qu’« une bonne douzaine d’États disposaient de la capacité de fabriquer la bombe atomique », ils sont aujourd’hui le double ! Figurent dans cette liste des puissances d’Europe occidentale, comme la Belgique, l’Allemagne, l’Italie, le Danemark, la Suède, la Finlande, la Norvège ou l’Espagne, qui maîtrisent la technologie mais qui, pour de raisons diverses, refusent de s’y engager. D’autres pays n’ont pas besoin actuellement de la développer car ils bénéficient de la protection du parapluie américain, à l’image du Canada, de l’Australie, de la Nouvelle-Zélande ou du Japon. Mais d’autres, comme l’Iran, les pays moyen- orientaux ou certains pays asiatiques, essaient actuellement ou pourraient essayer à l’avenir de l’obtenir. Le Japon et la Corée du Sud pourraient être tentés d’acquérir à leur tour l’arme nucléaire face à l’hégémonie militaire croissante de la Chine et face au pouvoir de nuisance de la Corée du Nord. La course au nucléaire est par conséquent loin d’être terminée : en 2019, les neuf pays disposant du feu nucléaire ont dépensé 66,5 milliards d’euros pour cette technologie (10 % de plus qu’en 2018). Aujourd’hui encore, les armes atomiques peuvent constituer une grave menace pour la paix et la sécurité internationales, car ce sont des armes de destruction massive dont l’utilisation provoquerait non seulement des dégâts (humain et matériel) incommensurables, mais remettrait en cause la survie même de l’humanité. Le traité sur la non-prolifération 13 (TNP) est plus que jamais menacé (voir infra) et sa crédibilité est réduite depuis l’obtention de l’arme nucléaire par le Pakistan, l’Inde et surtout la Corée du Nord. Le cauchemar du « terrorisme nucléaire » En plus de comporter un fort risque de déstabilisation de l’ordre géopolitique mondial, la prolifération nucléaire comporte également aujourd’hui le risque que des organisations terroristes obtiennent un jour des armes nucléaires, certes rudimentaires, mais au potentiel dévastateur sans précédent. Il y a actuellement deux régions dans lesquelles le risque de prolifération est élevé : le Moyen-Orient et l’Asie du Nord-Est. Certes, la construction d’une arme nucléaire et son utilisation sont très difficilement accessibles à des groupes terroristes. Toutefois, ceux-ci pourraient s’en procurer soit en l’achetant à un État – peu probable –, soit en prenant le pouvoir dans un pays qui la possède, soit en fabriquant des bombes sales 14 après avoir acheté de la matière fissile auprès d’États ex-soviétiques ou trafiquants de ces pays ayant accédé à des stocks. Des armes atomiques du pauvre seront de plus en plus faciles à fabriquer à l’avenir en raison du nombre très élevé de sources radioactives et des contrôles beaucoup trop légers (peu de réglementations sur les vieux stocks de déchets radioactifs). Un rapport d’information du Sénat estime « à plusieurs milliers le nombre de sources radioactives dites “orphelines”, perdues, abandonnées ou volées, dont certaines peuvent présenter un risque important pour la sécurité 15 ». Un autre point sensible à l’avenir concerne le développement accéléré des nouvelles technologies (notamment le cyber) qui rend encore plus incertains et fragiles les systèmes de sécurisation de ces armes. Quid de l’Iran ? La question du programme nucléaire iranien défraya la chronique internationale en 2002, lorsqu’un dissident du régime, Alireza Jafarzadeh, annonça, preuves à l’appui, que Téhéran avait secrètement construit un site d’enrichissement d’uranium à Natanz, au sud de la capitale. Le Président d’alors, Mahmoud Ahmadinejad, confirma lui-même que « l’Iran allait rapidement rejoindre les puissances nucléaires » et que son pays « éradiquerait l’État d’Israël ». Certes, la communauté scientifique iranienne ne manqua pas de souligner que cela concernait le strict domaine du nucléaire civil, via les centrales de Boucheh, sur le golfe Persique, et de Darkhovin, face au Koweït. Mais la « communauté » dite « internationale » n’a jamais été convaincue, même si le passage du nucléaire civil (enrichissement de 3 à 5 % du minerai d’uranium) au nucléaire militaire (enrichissement de l’ordre de 90 %) est loin d’être évident. C’est ainsi que le 14 juillet 2015, à Vienne, à l’initiative du président Hassan Rohani et de son homologue Barack Obama, un accord spécifique a été signé entre Téhéran, les cinq membres permanents du Conseil de sécurité des Nations unies et l’Allemagne. L’accord de Vienne de 2015 sur le nucléaire iranien, appelé Joint Comprehensive Plan of Action (JCPOA), comporte trois volets majeurs : une limitation du programme nucléaire iranien, pendant au moins dix ans, lui interdisant la possibilité de produire du plutonium enrichi, et non, comme on a pu le lire ici ou là, par un démantèlement du programme ; un renforcement des contrôles, via le corps des inspecteurs de l’Agence internationale de l’énergie atomique (AIEA) ; et, en contrepartie, la levée au moins partielle, des sanctions économiques qui avaient été imposées à l’Iran. Bien que le rapport de l’AIEA du 30 août 2017 soulignait que « l’Iran tenait ses promesses et respectait ses engagements en renonçant à poursuivre la construction du réacteur d’Arak et en maintenant son uranium enrichi sous le seuil exigé des 30 kilogrammes », Donald Trump dénonça l’accord le 8 mai 2018. Deux faits conjoncturels sont à relever depuis cette date : l’assassinat, en Irak, le 12 janvier 2020, du général Qassem Soleimani 16 , le chef des forces Al-Qods et des Gardiens de la révolution (Pasdarans), et celui de Mohsen Fakhrizadeh 17 , le père de la bombe atomique iranienne, le 13 novembre 2020, à Absard, dans la province de Téhéran. Parallèlement, entre 2010 et 2019, des infrastructures nucléaires (centrifugeuses) et des réseaux stratégiques iraniens ont été attaqués par le virus informatique Stuxnet 18 ainsi qu’un autre encore plus sophistiqué et violent. Des faits qui montrent la détermination des États-Unis et d’Israël à ne pas accepter l’avancée de l’Iran vers le feu atomique. Certes, le nouveau président américain Joe Biden a promis de réintégrer l’accord. Et les négociations de Vienne, initiées le 6 avril 2021, ont permis de mettre sur la table un projet d’accord, le 20 juin 2021. Toutefois, si un texte est signé par l’administration américaine et le nouveau président iranien, Ebrahim Raeissi – un proche du Guide Suprême jadis hostile à l’accord de 2015, dont l’intérêt immédiat est de sortir son pays de la crise économique terrible – il sera toujours considéré comme un accord de dupes par l’Etat hébreu qui ne croit pas un instant aux engagements et à la parole des dirigeants iraniens. Joe Biden s’est d’ailleurs gardé de promettre de réintégrer les États-Unis dans l’accord de 2015 sans obtenir au préalable que le régime iranien donne des gages de bonne foi, notamment la fin de l’enrichissement de l’uranium à 60 %, seuil pas si éloigné que cela des 90 % qui permettent le passage au nucléaire militaire alors que l’accord limitait à 3,67 % le degré d’enrichissement de l’uranium produit par l’Iran, bien en deçà du seuil de 20 % atteint par Téhéran avant de signer le pacte. L’intention du président Joe Biden de lever les sanctions renforcées par Donald Trump pour que l’Iran soit motivé à renouer avec ses engagements se heurte en effet au caractère presque irréversible de certaines des mesures prises en 2018, notamment l’embargo pétrolier drastique contre Téhéran et l’interdiction de toute transaction avec l’Iran. Biden ne pourra en fait lever une partie des sanctions que si le régime des mollahs renoue avec les engagements de renonciation au nucléaire militaire dont il s’est progressivement affranchi, officiellement pour répondre à la « pression maximale » exercée par l’administration Trump. Toutefois, Téhéran exige en préalable l’abandon de « toutes les sanctions anciennes et nouvelles ». S’ajoute à ces préconditions, en elles-mêmes problématiques, la dénonciation par le régime iranien du sabotage ayant causé la panne du complexe nucléaire de Natanz (indispensable à l’enrichissement de l’uranium iranien) attribué à Israël. En représailles à cet acte de « terrorisme antinucléaire sioniste », les dirigeants iraniens ont décidé de porter l’enrichissement de leur uranium à 60 %, se rapprochant toujours plus des 90 % nécessaires à la fabrication de l’arme nucléaire. Selon certains, Joe Biden aurait tout intérêt à faire revenir l’Iran dans l’accord, mais il court un risque politique s’il se montre trop laxiste car les opposants à l’accord de Vienne pèsent au Congrès et au Sénat. Toujours est-il qu’une des conséquences principales des sanctions renforcées par Donald Trump (« pression maximale ») a été le renforcement de la coopération irano-chinoise qui a franchi un nouveau cap avec l’officialisation d’un accord stratégique de vingt-cinq ans entre les deux pays en mars 2020, un rapprochement que voudrait éviter à tout prix Joe Biden mais qui participe d’une tendance lourde inhérente à la multipolarisation et aux rivalités entre les États-Unis et le tandem russo-chinois 19 . En fait, en cas d’échec des négociations, la potentielle accession à l’arme nucléaire du pays serait extrêmement déstabilisante pour toute la région et sur le plan de la prolifération mondiale : certains pays arabes comme l’Arabie saoudite, ennemie principale de l’Iran, pourraient tenter à leur tour d’obtenir l’arme nucléaire par le biais du Pakistan, avec qui Riyad entretient des liens stratégiques étroits. Par la suite, la Turquie, à la fois liée au Pakistan et à l’Iran, et qui ne cache plus ses ambitions nucléaires militaires, pourrait saisir l’occasion pour lancer son propre programme accéléré. L’Égypte pourrait décider à son tour de relancer son programme nucléaire militaire secret initié dans les années 1980 et 1990, mais à condition de s’émanciper de sa relation privilégiée avec les États-Unis, ce qui est moins probable. Enfin, Israël ne pourrait pas ne pas intervenir militairement pour empêcher l’éventualité, totalement inacceptable, de l’acquisition du feu atomique par Téhéran... Le commerce des armes à l’heure du système postbipolaire Les ventes d’armes restent de manière significative (plus de 90 %) le quasi-monopole des États développés. Le peloton de tête des vendeurs d’armes (commerce officiel s’entend) est ainsi constitué des États-Unis en première position, de la Russie en deuxième, de la France, de l’Allemagne et de la Grande-Bretagne ensuite, mais en fait de l’UE en deuxième place devant la Russie si l’on raisonne en UE 27. Seules, mais avec des volumes de transactions qui restent modestes, quelques nations du Sud émergent, comme le Brésil, ou l’Union indienne, prenant le relais des seconds couteaux de la période précédente, comme la Pologne, la République tchèque ou la vertueuse Confédération helvétique, qui a par ailleurs déclaré la paix au monde et s’est réfugiée dans une stricte neutralité depuis des siècles, ce qui ne l’a pas empêché, sans états d’âme, d’occuper une place dans le top 10 des vendeurs d’armes depuis de nombreuses années. Quant aux clients, on souligne l’affirmation de la prédominance des pétromonarchies islamiques du Golfe, la présence de quelques nations en voie de développement du Sud-Est asiatique et l’arrivée aux tout premiers rangs (démographie oblige) de la Chine populaire et de l’Inde. Depuis les années 2000, la course aux surarmements s’est indéniablement amplifiée : les ventes d’armes et de systèmes d’armes ont crû annuellement de près de 10 % au cours de période 2012-2019. Le cap des 750 milliards de dollars de ventes a été franchi en 2013, et celui des 1 000 milliards en 2018. Ceci en dépit de la signature, en avril 2013, par quelque 131 États, du Traité sur le commerce des armes (TCA), entré en vigueur le 24 décembre 2014 et aujourd’hui ratifié par 110 nations. Son objectif est de « contribuer à réguler le commerce des armes et lutter contre le trafic illicite », visant tous types d’armements classiques, à l’exception des armes nucléaires, chimiques et bactériologiques, concernées par toute une gamme de traités spécifiques (voir infra). Malgré cela, le commerce mondial des armes n’a cessé depuis de s’accroître 20 . En 2019, la hiérarchie établie par l’International Institute for Strategic Studies (IISS) de Londres a montré que le top 5 assume quelque 75 % du trafic mondial : les États-Unis occupent le haut du pavé, avec 33 % des ventes, devant la Russie (23 %), la France (7,9 %), talonnée par la Chine (6 %), l’Allemagne (5,6 %), et la Grande-Bretagne (5,2 %). Une hiérarchie à mettre en parallèle, avec les plus gros budgets nationaux consacrés à la Défense, États-Unis, Russie ou Chine. Guère de surprises... La France est tout de même le troisième exportateur d’armes au monde. D’après le Small Arms Survey (l’annuaire sur les armes légères) et Uppsala Conflict Data Program (programme de collecte de données sur les conflits de l’université d’Uppsala), la valeur totale des transferts internationaux d’armes en 2020 s’élèverait à environ 100 milliards de dollars. Quant au « top 5 » des plus grands importateurs d’armes sur la période 2014-2019, l’Inde, l’Arabie saoudite (qui importe 22 % des ventes américaines d’armes), l’Égypte, l’Australie et l’Algérie ont totalisé ensemble 35 % des importations d’armes. L’Union indienne (13 %) a ainsi désormais dépassé l’Arabie saoudite (8,3 %) en raison des tensions avec les puissances voisines : Chine et Pakistan (voir conflit du Cachemire). L’Arabie saoudite s’arme quant à elle essentiellement face à son voisin iranien. Les Émirats arabes unis (4,8 %) craignent eux aussi l’Iran, mais sont actifs militairement au Yémen contre les djihadistes, en Libye contre les Frères musulmans, et équipent leurs alliés égyptiens et libyens. Avec 4,2 %, la Chine achète les armes qu’elle ne fabrique pas elle-même et s’équipe face aux États-Unis et à leurs alliés d’Asie ainsi que face à l’Inde. L’Algérie (3,5 %) suit et continue quant à elle d’entretenir des relations conflictuelles avec son entourage, notamment le Maroc, et poursuit sa stratégie d’indépendance et de domination militaire du Maghreb. Les crises continuelles au Proche- et au Moyen-Orient, de l’Iran à la Syrie, en passant par l’Irak, la Libye, le Mali ou le Yémen, n’ont fait que renforcer ces tendances. Rappelons que plus de la moitié des exportations d’armes américaines ont été destinées au Moyen-Orient entre 2014 et 2018, et que dans la même période, 59 % des exportations d’armes du Royaume-Uni ont été destinées au Moyen-Orient, la grande majorité des livraisons concernant des avions de combat destinés à l’Arabie saoudite et à Oman 21 . Toujours d’après les estimations de Small Arms Survey, un milliard d’armes à feu au moins seraient en circulation dans le monde, l’écrasante majorité étant possédée par de civils. Au total, depuis 1989, 2 436 351 personnes sont mortes dans des conflits armés, dont 78 000 en 2018, selon l’université d’Uppsala. Ceux qui veulent « supprimer la guerre », abolir les frontières, promouvoir une humanité unifiée et refusent l’idée même d’avoir des « ennemis » professent, certes, de belles idées. Toutefois, les actions de la majorité des États de la planète, y compris les démocraties occidentales, qui donnent des leçons de tolérance politiquement correctes aux « démocratures » du monde multipolaire, mais comptent parmi le top 5 des pays vendeurs d’armes, confirment le fait que les États n’ont ni amis ni bons sentiments mais des intérêts, souvent cyniques... Contrôle des armements ? Désarmement ? Ces deux concepts cohabitent encore volontiers avec le domaine de l’utopie. Le surarmement reste, plus que jamais, comme nous l’avons vu, la règle. Ce constat scelle l’échec cinglant du multilatéralisme et il dément les thèses irénistes de ceux qui ont proclamé, au sortir de la guerre froide, l’avènement de la paix universelle favorisée par le triomphe du modèle libre-échangiste McWorld et de la démocratisation sur le totalitarisme soviétique. L’ombre du nucléaire est plus que jamais présente, et, comme le disait Albert Einstein à son époque : « J’ignore comment sera la troisième guerre mondiale, mais nous avons la certitude, en revanche, qu’il n’y aura pas beaucoup de monde pour voir la quatrième » ! En effet, les traités sont finalement peu respectés, ou contournés ou annulés. Les États-Unis se sont retirés unilatéralement ces dernières années de plusieurs accords internationaux dont celui sur le climat, sur le nucléaire iranien, du traité ABM en 2001 22 , mais surtout, le 1 er février 2019, du traité des armes nucléaires de portée intermédiaire (Intermediate-Range Nuclear Force Treaty, INF) signé en 1987 par Ronald Reagan et Mikhaïl Gorbatchev, grand symbole de la fin de la guerre froide et qui était jusqu’à maintenant un des piliers les plus importants de l’architecture sécuritaire européenne depuis plus de trente ans. Ce traité interdit l’usage de missiles nucléaires d’une portée de 500 à 5 000 km qui sont les armes les plus redoutées et particulièrement dangereuses car réduisant le temps de réaction à une frappe nucléaire à dix minutes au lieu de trente pour des missiles balistiques intercontinentaux, rendant une défense très complexe. Le retrait des États-Unis du traité INF permet de facto un retour en Europe de ces missiles et vient augmenter le risque, certes peu probable, de guerre nucléaire ou néoguerre froide sur le continent européen et encore plus si le traité New Start, précédemment cité, vient lui aussi à être abandonné. La raison officielle est une réaction au déploiement de missiles russes appelés « Novator », qui pourraient frapper jusqu’à 1 500 km (ce qui est démenti par la Russie). Les États-Unis non seulement sortent des traités, mais voient l’arme nucléaire comme un arsenal tout à fait utilisable, par exemple en juin 2019, l’état-major américain a publié, peut-être par erreur, un document intitulé « Nuclear Operations » référencé JP-3-72 qui affirme que « le nucléaire peut s’utiliser comme n’importe quelle munition dès lors que la cible est militaire et qu’obtenir la victoire l’impose 23 »... On peut ajouter à ce constat le fait que Washington a également contourné la règle en implantant en Roumanie le système Aegis doté de lanceurs verticaux de 4 Mk41 de Lockheed Martin qui accueille le missile Tomahawk, lequel peut être armé d’une charge conventionnelle ou nucléaire, sa portée atteignant 2 500 km, donc de quoi frapper une partie de la « Russie utile ». Le maigre bilan de décennies de désarmement Le thème du désarmement est loin d’être une affaire récente : les Pères de l’Église déjà, à l’aube du christianisme, avaient décidé, aux conciles de Nicée et de Clermont, de mettre « hors la loi les armes les plus cruelles ». L’Église catholique a poursuivi cette action, en prônant l’application (sous peine d’excommunication) de la « trêve de Dieu », des journées où il était formellement interdit de combattre. Plus tard, en 1648, au lendemain de la guerre de Trente Ans, les négociateurs du traité de Westphalie ont évoqué l’officialisation des concepts de « désarmement régional » et d’« équilibre affiché des forces ». En 1899, la conférence de La Haye propose « l’arbitrage obligatoire », et en 1919, les Alliés ratifient la création de la Société des Nations, et sur les « quatorze points » de son pacte, dit « de Wilson », trois concernent ce souhait d’en finir avec l’utilisation de la guerre comme instrument privilégié de résolution des contentieux. Mais les résultats obtenus par la SDN, c’est le moins que l’on puisse écrire, seront cruellement dérisoires... À la fin des années 1950, après l’échec cinglant des plans de désarmement général et complet (sic), les armes nucléaires vont devenir l’objet majeur, jusqu’au milieu des années 1990, des principales négociations, notamment dans le cadre des discussions bilatérales américano-soviétiques. Les accords et les traités ne vont certes pas manquer : le but recherché par les deux grands, à cette époque, est d’obtenir des autres nations un engagement de renonciation à l’acquisition d’armes nucléaires. En termes de contrôle des armements, la stabilité stratégique impliquait que les deux superpuissances disposent de capacités militaires « essentiellement équivalentes », comme le soulignait la fameuse doctrine Kissinger : une équivalence n’impliquant pas l’égalité absolue de chacun des deux partenaires dans les différents secteurs des systèmes d’armes. Et, jusqu’en 1985-1986, chacun, de facto, s’est renforcé dans le système où son adversaire lui paraissait le plus menaçant. Les exemples d’accords et de traités n’ont certes pas manqué depuis 1965-1985. Parmi eux, on peut citer une vingtaine de traités multilatéraux, à portée théorique indéniable, mais aux conséquences concrètes plus que modestes. Leurs objectifs étaient d’éviter la militarisation, nucléaire ou non, de certaines zones ; de geler ou limiter le nombre et les aspects qualitatifs des vecteurs d’armes nucléaires ; de restreindre les essais ou systèmes d’armes ; de prévenir la dissémination de certaines armes parmi les États ; d’interdire différents moyens de guerre ; de faire observer le droit international dans les conflits armés et de notifier préalablement des activités militaires... Citons notamment : a) Des accords destinés à éviter la militarisation de certains environnements : la convention sur la modification de l’environnement du 5 octobre 1978 (31 signataires) qui interdit « l’utilisation à des fins hostiles de techniques susceptibles de modifier substantiellement l’environnement ». Mais la manipulation dudit environnement par le canal de techniques utilisables dans le cadre d’opérations militaires « tactiques » a échappé à cette interdiction ; le traité de désarmement sur le fond des mers et des océans du 18 mai 1972 (70 signataires) qui interdit de placer des armes nucléaires sur les fonds marins au-delà d’une zone de 12 milles mais pas d’installer sur ces mêmes fonds marins des bases de maintenance des systèmes d’armes nucléaires mobiles. b) Des accords destinés à éviter la prolifération nucléaire : le plus célèbre est le TNP du 5 mars 1970 (114 signataires), qui visait à interdire les transferts d’armes nucléaires par les États dotés de ces armes et leur acquisition par ceux qui en sont dépourvus. Cela pour éviter le détournement des matières fissiles destinées à des fins civiles vers la fabrication d’engins explosifs. Ce traité sera très vite sapé de facto, tant par la politique des fournisseurs de produits nucléaires que par le non-respect des obligations de désarmement contractées par les puissances dotées d’armes atomiques. c) Des accords destinés à interdire la fabrication de certains types d’armes : la convention sur les armes biologiques du 10 avril 1972, entrée en vigueur le 26 mars 1975 (92 signataires), qui prohibe la recherche, le développement, la fabrication et l’usage de ces armes ! la convention sur l’interdiction de l’utilisation de certaines armes conventionnelles, signée le 10 avril 1981, portant sur les systèmes d’armes « jugés excessivement pernicieux ou aux effets indiscriminés » ; Parmi les accords portant sur la limitation des essais nucléaires, on peut citer notamment : le traité d’interdiction partielle des essais, d’octobre 1967 (112 signataires), qui interdit les essais nucléaires dans l’atmosphère, l’espace extra-atmosphérique et sous l’eau. Ce traité a contribué à réduire la pollution radioactive provoquée par les explosions nucléaires, mais n’impliquait pas les essais souterrains ; le traité sur l’espace extra-atmosphérique du 10 octobre 1967 (82 signataires) qui interdit la mise en orbite autour de la Terre des armes de destruction massive... mais qui laisse l’espace libre quant au déploiement des autres systèmes d’armes ! le traité sur la limitation des essais souterrains, signé le 2 juillet 1974, qui limite la puissance explosive des armes nucléaires à 150 kt. Un seuil si élevé que les principaux États concernés ont pu le signer sans réserve tout en poursuivant sereinement leurs programmes de développement ! e) Des accords destinés à éviter la militarisation, conventionnelle ou nucléaire, de certaines zones géographiques : contrairement aux précédents, leurs bilans se sont parfois révélés positifs. Il s’agit, tout d’abord, du traité de l’Antarctique. Un précurseur, signé dès le 1 er décembre 1959, entré en vigueur le 23 juin 1961 (21 signataires) et actualisé à Versailles (108 signataires) en décembre 1991. Les États s’engagent « à ce que le continent antarctique soit exclusivement utilisé à des fins pacifiques », disposition d’autant plus significative que le continent recensait un nombre particulièrement élevé de bases militaires, eu égard à sa localisation éminemment stratégique. Mais le plus riche en enseignements demeure le traité de Tlatelolco, signé en avril 1968 par 22 États latino-américains 24 , qui, pour la première fois, établit une zone dénucléarisée dans toute une région habitée du globe, l’Amérique latine. Le protocole 1 du traité souligne « que les États n’appartenant pas à l’Amérique latine seront tenus de maintenir leurs territoires localisés dans cette zone exempte d’armes nucléaires ». La Grande-Bretagne, à cette date, et la France, avec son département de Guyane, sont visées. Logiquement, quatre nations latino- américaines susceptibles de se doter du nucléaire militaire et qui ont d’ailleurs émis des projets dans ce sens ne signent pas : Cuba (exclue de l’OEA depuis la révolution castriste), le Chili, l’Argentine et le Brésil. Les accords bilatéraux de Salt I et Salt II La décennie 1970 va s’illustrer par la signature de deux accords bilatéraux majeurs, Salt I et son avatar Salt II 25 , qui induisent non pas un désarmement mais une limitation. Salt I, signé le 26 mai 1972, par le président des États- Unis, Richard Nixon, et le numéro un de l’Union soviétique, Leonid Brejnev, portait sur la limitation des systèmes de missiles antibalistiques. Il stipulait que les États-Unis et l’URSS « déclarent leur intention commune d’arriver à la date la plus proche possible à l’arrêt de la course aux armes nucléaires ». Si les articles 1 et 2 imposent effectivement une réduction d’un type particulier de défense et gèlent le nombre total des vecteurs, le traité n’impose aucune restriction quant à l’amélioration qualitative des armes nucléaires, ni au nombre d’ogives équipant chaque missile... Rappelons que dès 1974 et la rencontre bilatérale de Vladivostok, les Russes vont moderniser leur arsenal en mettant sur pied des engins balistiques marvés, puis mirvés 26 . Et les Américains, tout en désarmant leurs missiles ABM-1, vont se lancer, entre 1974 et 1977, via le complexe militaro-industriel, dans une R&D de plus en plus sophistiquée. Comme l’écrivait le général Pierre Marie Gallois, « la période immédiatement postérieure à la signature de Salt 1, présenté comme un grand pas vers le désarmement, a vu les Américains passer de quelque 8 000 ogives à plus de 20 000 et les Russes en faire autant portant leur arsenal de destruction à distance de 2 600 à 26 500 27 ». Les États- Unis et l’Union soviétique, loin de désarmer tout en feignant le contraire, avaient cent fois plus d’équipements que nécessaire pour exercer une dissuasion et ils étaient en mesure de raser mutuellement des centaines de fois leurs grandes villes, bref une course aux armements coûteuse devenue irrationnelle... Ces premières négociations ont largement contribué à renforcer des créneaux de production de plus en plus élaborés, au grand bénéfice du complexe militaro-industriel américain, d’une part, et du complexe militaro-bureaucratique soviétique, d’autre part. Compte tenu de l’obligation d’établir un bilan quinquennal de l’application concrète du traité, le successeur de Salt I, nommé logiquement « Salt II », sera négocié et signé à Vienne, le 18 juin 1979, par Jimmy Carter et Leonid Brejnev. Face à la dérive décrite plus haut, et suite aux multiples critiques émises notamment au sein des Nations unies, voire aux États-Unis eux-mêmes, les négociateurs de Salt II vont s’efforcer de travailler sur le nombre total d’ogives équipant de facto les véhicules porteurs 28 . Tout cela aurait effectivement pu aboutir à de probants résultats si Salt II était entré en vigueur... On le sait, en vertu de la Constitution américaine, c’est le Sénat qui autorise ou pas la ratification des traités internationaux signés par le Président, ce qui est loin d’être évident, surtout quand la majorité sénatoriale n’émarge pas au parti du Président. La majorité républicaine refusa alors au démocrate pacifiste Jimmy Carter la ratification de Salt II pour, une fois encore, des motivations de pure géographie électorale interne. La période 1985-2020 : du contrôle des armements au concept de désarmement, Start I, Start II, Start III et New Start Dans un contexte d’implosion de l’Union soviétique, trois traités illustrent la période : Start l, Start II, et Start III (New Start). Pour récapituler, Start I (Strategic Arms Reduction Treaty) porte non sur la limitation d’armes stratégiques défensives, mais sur la réduction des armes stratégiques offensives. Il est signé à Moscou le 31 juillet 1991 par Mikhaïl Gorbatchev et George H. Bush, et entre en vigueur le 5 décembre 1994, pour une durée initiale de quinze ans. Très ambitieux, Start I envisageait de réduire le nombre d’ogives stratégiques déployées de 10 000 à 6 000 unités pour chacun des signataires. Le bilan dressé à la fin de la période s’avère indéniablement plus modeste : on passe de 9 986 ogives américaines à 8 556 et de 10 237 russes à 7 449... Quant à Start II, signé le 3 janvier 1993, par George H. Bush et le successeur de Gorbatchev, Boris Eltsine, président de la nouvelle-née fédération de Russie, il prévoit la réduction des deux tiers des arsenaux stratégiques. Ratifié par le Sénat américain en janvier 1996, mais seulement en avril 2000 par les Russes, Start II ne sera jamais appliqué ! La suite n’est pas plus brillante en termes de réussite : le 24 mai 2002, George W. Bush et Vladimir Poutine signent le traité Sort (Strategic Offensive Reduction Treaty), ratifié le 8 mars 2003, qui confirme les trois phases de Start I, projette un nombre total d’ogives déployées à l’horizon 2012 compris entre 1 800 et 2 000 ogives, mais annule Start II ! Enfin, Start III (généralement appelé « New Start ») est signé le 8 avril 2010, à Prague, par Barack Obama et Dmitri Medvedev. Il envisage une réduction de la capacité opérationnelle des deux camps à 1 550 têtes nucléaires. Il n’englobe pas les armes tactiques, limitant le nombre de lanceurs nucléaires stratégiques déployés à 700. Notons cependant que les États-Unis, en 2018, ont soutenu que pour le rendre plus crédible, l’accord Start III devrait inclure la Chine. Toutefois, Pékin, qui considère que son arsenal est encore bien trop inférieur à celui de Moscou ou Washington, a refusé d’y participer. Son expiration, le 5 février, a été source de tensions entre Washington et Moscou. En octobre 2020, les États-Unis avaient souhaité que la Russie gèle son arsenal nucléaire, une demande bien évidemment jugée « inacceptable » par le Kremlin 29 . Toutefois, fin 2020, Américains et Russes semblaient s’être mis d’accord sur la possibilité d’un gel « conjoint » du nombre de têtes nucléaires, d’autant que Joe Biden a toujours été favorable aux traités de non-prolifération. Les traités multilatéraux Le dernier tiers de siècle s’est aussi illustré par trois traités majeurs, l’accord de Washington de 1987, celui de Paris de 1990 et le traité CTBT de 1996. L’accord de Washington : signé entre les États-Unis et l’URSS le 18 septembre 1987, à la suite des rencontres de Reykjavik, qui portait sur le démantèlement progressif des forces nucléaires « intermédiaires », c’est-à-dire, par convention, à portée inférieure à 5 500 km. Certes, mais ce type d’armes (bien malencontreusement baptisées « euromissiles », au prétexte que les rampes de missiles russes basées sur le flanc occidental de l’Oural pouvaient menacer les principales capitales européennes) est en réalité singulièrement composite. Il regroupe les « Forces nucléaires intermédiaires » (FNI), à savoir tous les missiles de portée comprise entre 1 000 et 5 500 km ; les « FNI à plus courte portée » (entre 500 et 1 000 km) ; et les « Forces nucléaires intermédiaires à portée la plus courte » (SNI), c’est-à- dire inférieure à 500 km. L’accord de Washington laissait de côté ces derniers, ainsi que l’artillerie nucléaire tactique et les systèmes basés à terre. Or, à cette époque déjà, rien n’empêchait techniquement d’équiper des sous-marins nucléaires de missiles de croisière. Bref, les accords de Washington ont permis le démantèlement de 7 à 8 % des forces nucléaires des 2 superpuissances. Le sommet de Paris, novembre 1990 : il mérite d’être qualifié d’événement de première importance au chapitre du contrôle des armements, 35 chefs d’État ou de gouvernement étaient présents, dont l’ensemble des chefs d’État européens, le président des États-Unis et son homologue canadien. Le Traité d’interdiction complète des essais nucléaires du 24 septembre 1996 (TICN ou CTBT pour les anglophones), qui interdit les 4 types d’essais nucléaires : atmosphérique, extra-atmosphérique, sous- marin et, fait nouveau, souterrain. Les 5 puissances membres permanents du Conseil de sécurité de l’ONU le signent. L’Union indienne s’abstient. Mais pour qu’il puisse entrer en vigueur, ce traité doit être ratifié par les 44 pays possédant des réacteurs nucléaires. Le 6 avril 1996, Londres et Paris sont les 2 premiers membres du Club nucléaire à le ratifier, après que la France a procédé, en 1995, à 8 ultimes essais dans le Pacifique sud (voir supra). En 2019, 183 États l’avaient signé et 28 ratifié. Parmi les 44 nations directement concernées, 3 ne l’avaient toujours pas signé, l’Union indienne, le Pakistan et la Corée du Nord ! Et 5 l’avaient signé mais pas ratifié, Israël, l’Égypte, l’Iran, les États-Unis et la Chine de Pékin. Aux États-Unis, le Sénat en a rejeté la ratification en 1999. Depuis, aucune administration n’a jamais réussi à faire ratifier le CTBT... En revanche, en 2000, Vladimir Poutine, alors bien disposé vis-à-vis de l’Occident, fit ratifier par la Douma non seulement le traité Start II, en souffrance depuis 1992, mais également le CTBT, signé en 1996, renvoyant ainsi la responsabilité d’une nouvelle course aux armements aux États-Unis. Relance de la course aux armements sur fond de néoguerre froide... Comme nous le rappelions dans le chapitre IV, les États-Unis, prisonniers d’une vision diabolisante de la Russie, assimilée à un clone de l’URSS totalitaire, et donc d’une représentation stratégique du monde héritée de la guerre froide, ont violé l’Acte fondateur Otan-Russie de 1997 qui impliquait de ne pas faire intégrer dans l’Alliance les pays de l’ex-pacte de Varsovie. Au lieu d’œuvrer à une alliance « panoccidentale » qui aurait donné toute sa place à la Russie face aux menaces communes, notamment chinoise et islamiste, les stratèges de Washington et les élites de McWorld n’ont eu de cesse d’exclure la Russie de l’espace occidental et de poursuivre l’encerclement du Heartland russe par les manœuvres de stationnement et d’extension, toujours plus vers l’est, des forces de l’Otan, jusque dans « l’étranger proche » russe : Pays baltes, Roumanie, Pologne, ex-Yougoslavie, Bulgarie, sans oublier la ligne rouge ukrainienne évoquée plus haut. Cet élargissement sans fin de l’Otan vers l’est et le soutien américano- occidental aux rébellions et oppositions antirusses en Géorgie, Ukraine, Kirghizistan ont contribué à rendre la Russie bien plus hostile encore envers l’Occident qu’elle ne l’était à la fin de la guerre froide. Cette stratégie visant à encercler la Russie et la priver de l’accès aux Mers chaudes puis à tenter de compromettre l’élargissement de son marché gazier ouest-européen est, depuis le milieu des années 2000 (guerre d’Irak, révolutions de « couleurs » ou de « velours » en Ukraine et Géorgie, etc.), un véritable casus belli pour Moscou. En réaction, la Russie poutinienne a renforcé sa coopération avec tous les ennemis de l’Occident : Chine, Corée du Nord, Venezuela, Iran 30 ... La conséquence directe de cette nouvelle guerre froide, dramatique pour la sécurité collective et pour la vieille Europe prise en tenailles, a été le retrait, à l’initiative des États-Unis, de nombreux accords de non-nuisance, de traités de non-prolifération (nucléaire et balistique) et de non-dissémination (armes conventionnelles) qui a permis à Washington, dans le cadre d’une véritable relance de la course aux armements, de retrouver des marges de manœuvre non seulement vis-à-vis de la Russie, mais aussi de la Chine. Cette dernière n’étant en fait contrainte par aucun traité de désarmement passé ou présent, le développement massif de son armement nucléaire, balistique et conventionnel ne souffre plus d’aucune limite... D’évidence, ces retraits américains des grands traités de désarmement et de contrôle des armes, suivis des réponses russes équivalentes sur fond de tensions en Ukraine, au Moyen-Orient et en Syrie, ont rendu plus probables que jamais des conflits entre les deux anciens grands du monde d’avant, y compris nucléaires. Ce retour redouté des conflits interétatiques concerne au premier chef l’Europe, théâtre d’interposition majeure entre la Russie et les forces atlantistes, mais également le Proche-Orient (armées russes et américaines se faisant face en Syrie), la mer Baltique, la mer de Chine et l’Asie en général (continent comptant le plus grand nombre de pays dotés de l’arme nucléaire : Chine, Taiwan, Corée du Nord, Corée du Sud, Pakistan, Inde). Ainsi, on notera qu’à peine un mois après la décision de Donald Trump de retirer les États-Unis du traité sur les forces nucléaires à portée intermédiaires (FNI), en août 2019, Washington a procédé à l’essai d’un missile balistique de moyenne portée qui a atteint sa cible après plus de 500 km de vol et qui n’a pas manqué de faire réagir la Russie comme la Chine, laquelle a dénoncé la recherche systématique de supériorité militaire par les États-Unis au risque d’une relance de la course aux armements dans le monde 31 . À partir de 2010, les États-Unis ont ainsi mis en place par le biais de l’Otan une véritable architecture globale de défense antimissile balistique en Europe (BMDE), couvrant cette fois tous les territoires des pays européens de l’Otan et qui, au passage, encercle la Russie, bien que prétextant être dirigée vers l’Iran... Ce système est objectivement destiné à rendre une frappe russe en retour impossible en cas d’une première frappe nucléaire de l’Otan. En 2014, il a été poursuivi et amélioré par les Américains qui ont ensuite utilisé l’annexion de la Crimée comme prétexte pour implémenter des systèmes de détection radar de défense aérienne supplémentaires et des destroyers. La course aux armements est donc loin d’être stoppée, car en réponse, les Russes développent leurs systèmes de défense : un des exemples les plus importants et inquiétants concerne les missiles hypersoniques Avangard, à la pointe de la technologie. Testé en 2018 et mis en service le 27 décembre 2019 (juste au moment de l’abandon du traité FNI), ce missile est extrêmement performant, évoluant à une vitesse moyenne de Mach 20 (le maximum étant Mach 27, tandis que les missiles guidés traditionnels évoluent aux alentours de Mach 5), et pouvant délivrer des charges nucléaires d’une puissance de 2 Mt 32 ... Autre particularité, ils sont capables de voler à une altitude anormalement basse (rasage) qui rend la détection difficile et trop tardive pour une réaction. Ils peuvent ainsi détruire les missiles intercontinentaux ennemis directement dans leurs silos, remettant en question l’efficacité même de la défense de l’Otan. Ce système a rendu Vladimir Poutine particulièrement fier du fait que « personne d’autre que nous n’a d’armes hypersoniques »... Précédemment, la Russie a également mis au point un missile balistique intercontinental du nom de Satan 2 ou « RS-28 Sarmat », très furtif et qui serait capable de détruire un territoire comme la France en quelques secondes. Washington se prépare à un affrontement direct contre la Russie, et cela de manière officielle, comme en témoigne le programme d’exercice « Defender 2020 », qui avait pour but de simuler l’attaque d’un des pays de l’Otan. Pour cela, 37 000 soldats dont 20 000 Américains étaient attendus pour un budget de 315 millions d’euros, chiffre qui a finalement été considérablement réduit en raison de la pandémie de la Covid-19 (6 000 soldats américains). Cependant, cela met clairement en lumière les objectifs de Washington : afficher leur domination sur l’Europe et leurs menaces à l’égard de la Russie. Toutefois, en se concentrant sur « l’ennemi russe », l’Otan semble oublier la Chine, pourtant beaucoup plus menaçante, à terme, d’un point de vue géocivilisationnel, économique et stratégique, que la Russie. Les forces armées américaines pourraient en effet être dépassées dans quelques dizaines d’années par la Chine en cas de conflit dans le Pacifique. Ce déclassement est favorisé par la priorité américaine accordée au Moyen-Orient et à la Russie. De plus, la plupart des bases militaires américaines du Pacifique ouest manquent d’infrastructures de défense et sont vulnérables. Enfin, il ne faut pas oublier que la Chine nucléaire possède aussi l’armée la plus vaste au monde avec plus de 2 millions de soldats opérationnels (et 800 000 réservistes) et un budget de la Défense presque trois fois supérieur à celui de la Russie (172 milliards d’euros contre 64). En outre, elle a fortement investi dans les missiles balistiques de haute précision. Même si la puissance militaire américaine dispose encore d’une bonne marge de sécurité, dans un monde en évolution très rapide, les rapports de force peuvent évoluer de façon surprenante. De plus, la Chine développe elle aussi les armes hypersoniques, les outils de guerre informatique ou l’intelligence artificielle, domaine dans lequel elle aurait quasiment déjà atteint l’égalité avec les États-Unis et les aurait peut-être même déjà dépassés, notamment l’informatique quantique. 1. Projet de recherche qui produisit la première bombe atomique durant la Seconde Guerre mondiale. 2. Statista Research Department, « Worldwide number of nuclear tests from 1945 to 2020 », 1 er décembre 2020. 3. Missile balistique intercontinental américain à ogive nucléaire. 4. Bombe nucléaire à hydrogène développée par l’Union soviétique, pesant 57 Mt, considérée comme la bombe la plus puissante ayant été créée (aujourd’hui abandonnée). 5. Le souffle de l’explosion balayerait tous les bâtiments sur 3 000 km² et les radiations thermiques s’étendraient sur 17 000 km² ; les morts s’élèveraient (pour Paris) à 7 millions, in « Voici l’étendue des dégâts si une bombe nucléaire Tsar frappait Paris », L’Express, 3 avril 2015. 6. Sous-marins nucléaires lanceurs d’engins. 7. Hans M. Kristensen et Matt Korda, « Status of World Nuclear Forces », Federation of American Scientist, septembre 2020. 8. Sénat : « L’évolution de l’arsenal nucléaire russe », Désarmement, non-proliférations nucléaires et sécurité de la France, rapport d’information, 19 janvier 2021. 9. En plus des SNLE, l’arsenal naval nucléaire comporte des lanceurs de missiles de croisière (SSGN) : BGM109 Tomahawk pour les États-Unis, SS-N-19 pour la Russie et nom inconnu pour les Chinois. Les États-Unis ont cinquante sous-marins SSGN, le Royaume-Uni et la France en ont aussi. Les BGM109 sont à double capacité : conventionnelle et nucléaire. On peut y ajouter les missiles de croisière lancés à partir de plates-formes aériennes. 10. Hans M. Kristensen et Matt Korda, « Status of World Nuclear Forces », art. cit. 11. Sous-marins nucléaires d’attaque. 12. « Corée du Nord : Le difficile accès à la dissuasion », Défense et sécurité internationale, n o 121, février 2016, p. 21. 13. Traité entré en vigueur en 1970 visant à empêcher la prolifération des armes nucléaires, à favoriser l’utilisation pacifique de l’énergie nucléaire et à faire progresser l’objectif du désarmement nucléaire. 14. Bombes mêlant des explosifs classiques et éléments radioactifs comme ceux utilisés en médecine ou déchets radioactifs. 15. « Des caractéristiques dangereuses pour la sécurité internationale », rapport d’information du Sénat, 19 janvier 2021. 16. Général iranien commandant de la Force Al-Qods, unité d’élite des Pasdarans, était très populaire en Iran. 17. Physicien, général des Pasdarans et haut responsable dans le programme nucléaire iranien, tué le 27 novembre 2020. 18. Ver informatique conçu par la NSA avec l’unité israélienne 8200 dans le cadre de l’opération Olympic Games. 19. Le « pacte de coopération stratégique » signé le 27 mars 2021 à Téhéran. 20. Le TCA fixe des interdictions pour mettre fin aux transferts d’armes, de munitions et d’articles associés entre États, notamment si l’on soupçonne qu’ils sont utilisés pour commettre ou faciliter des crimes contre l’humanité ou de guerre. 21. Entre 2014 et 2019, de 4 100 véhicules blindés ont été livrés à l’Arabie saoudite par l’Autriche, le Canada, la France, la Géorgie, l’Afrique du Sud et la Turquie, et 338 tanks par les seuls États-Unis. La France a livré quant à elle 1 389 véhicules blindés de combat à l’Arabie saoudite. 22. Traité qui limitait les systèmes antimissiles balistiques, retrait présenté par George W. Bush comme une première étape vers un bouclier de défense antimissiles destiné à protéger les États-Unis et ses alliés. 23. « Du danger pour l’Europe de la stratégie nucléaire des États-Unis et de l’OTAN », Capital, 30 mai 2020. 24. L’accord distingue entre l’énergie nucléaire à but militaire, condamnée, et l’énergie nucléaire civile, encouragée pour contribuer à la croissance et au développement des États concernés. 25. Salt est l’abréviation de l’anglais Strategic Arms Limitation Talks (« négociations sur la limitation des armes stratégiques »). 26. Missiles marvés : missiles dotés de plusieurs ogives nucléaires programmées sur un même objectif. Missiles mirvés : missiles dotés de plusieurs ogives nucléaires programmées, chacune sur des objectifs différents. 27. Source : conversations entre Jacques Soppelsa et le général Pierre Marie Gallois rapportées dans son site web. 28. Un plafond de 10 ogives pour les missiles balistiques et de bombardiers et de 14 ogives pour les missiles de sous-marins. 29. « Qu’est-ce que le New Start, ce traité qui ravive les tensions entre Washington et Moscou ? », Le Monde, 14 octobre 2020. 30. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 31. Michel Cabirol, « Pourquoi les États-Unis sont sortis du Traité sur les forces nucléaires à portée intermédiaire », La Tribune, 23 août 2019. 32. César Frezat, « La Russie à l’avant-garde des missiles hypersoniques », note du Cerpa, avril 2019. CHAPITRE IX Le crime organisé : grand gagnant de la mondialisation ! « S’il n’y a pas de banque, il n’y a pas de blanchiment ; s’il n’y a pas de blanchiment, il n’y a pas de crime. C’est une équation qu’il faut bien avoir en tête. » Éric Vernier « Actuellement, l’économie a besoin de l’argent sale pour fonctionner. » Noël Pons Accélérée à la fin des années 1980, la mondialisation marchande, avec ses trois volets (libre circulation des biens, des personnes et de l’argent), ses effets en termes de dérégulation, d’ouverture des frontières et de migrations de masse, a nettement contribué à l’internationalisation et à l’intensification du crime organisé. Cette accélération a été portée par trois facteurs liés entre eux : l’extension du marché des drogues sur l’ensemble de la société occidentale ; la nécessité d’acheminer cette drogue depuis le producteur jusqu’aux principaux pays consommateurs séparés par des milliers de kilomètres ; l’émergence des paradis fiscaux et sociétés off-shore devenus des centres financiers recyclant des capitaux illégaux issus de ces trafics parasitaires et nocifs. Cette internationalisation a étroitement suivi les vagues successives de la mondialisation anglo-saxonne avec ses abolitions de contrôles sur les frontières et les échanges financiers. La criminalité transnationale organisée (CTO) est devenue un acteur géopolitique incontournable, certes non étatique, hybride, illégal, mais qui détient une telle puissance qu’il peut parfois faire plier des États et corrompre leurs décideurs, leurs fonctionnaires et leurs forces de l’ordre. Les pays les plus faibles sont les plus exposés, mais le péril est global, car les flux d’argent sale et les stupéfiants pointent presque tous vers les riches économies du Nord qui sont les plus gros marchés et qui possèdent les grandes banques et paradis fiscaux les plus sûrs. Le souci premier des CTO est, une fois leurs marchandises illicites vendues, de faire rentrer l’argent sale dans l’économie légale. Dans une société toujours plus mondialisée et interconnectée, les possibilités ont exponentiellement augmenté jusqu’à offrir aux mafias l’occasion d’ériger de véritables multinationales du crime où toutes les activités rentables – en plus de la drogue – sont les bienvenues. Là aussi, l’idée de la « mondialisation heureuse » trouve de sérieuses limites : les mafias aiment par-dessus tout les accords de libre-échange, l’ouverture des frontières, les déréglementations, le capitalisme mondialisé et même l’économie digitale. Aujourd’hui, leurs activités comprennent, outre la production et la vente de drogues, les trafics d’armes, d’êtres humains/migrants, la prostitution, l’élimination des déchets toxiques, le vol de matériaux, le braconnage, le trafic d’œuvres d’art, d’animaux, ou toute autre activité illégale, y compris les trafics d’organes et le cybercrime. D’après l’expert Éric Vernier, qui a croisé les statistiques de l’ONU, du FMI, du Groupe d’action financière sur le blanchiment de capitaux (Gafi) et d’ONG spécialisées, la richesse dégagée annuelle des mafias au niveau mondial avoisinerait 2 000 milliards de dollars par an. L’expert Jean de Maillard 1 parle ainsi de « produit criminel brut » (PCB). La comparaison avec les économies légales est vertigineuse, car les réseaux criminels représenteraient alors la « huitième puissance mondiale » et seraient membres du G8 s’ils étaient un État ! Le PCB des mafias est supérieur au PIB de pays comme l’Italie ou le Brésil (1 800 milliards de dollars), et comparable à celui de la France (2 100 en 2019), ou même du continent africain tout entier 2 , soit près de 2 % du PIB mondial 3 . À noter qu’Eurostat a demandé aux pays de l’UE d’inclure dans le calcul de leur PIB les recettes de la drogue et de la prostitution 4 ... Quant à l’argent sale en général, si l’on inclut dans ce chiffre global l’argent sale « noir » du crime, « l’argent gris » des petites fraudes ou de l’argent facile, les abus de biens sociaux, les faux bilans et les détournements de fonds non liés aux mafias, il équivaut à 7 000 milliards de dollars chaque année, soit 10 % du PIB mondial. Les détournements de fonds publics représenteraient environ 2 600 milliards, soit 5 % du PIB mondial 5 . En France, la seule fraude à la sécurité sociale drainerait chaque année des dizaines de milliards vers des pays africains. La Cour des comptes française a d’ailleurs estimé cette fraude entre 20 et 25 milliards d’euros par an 6 . Les principaux responsables du blanchiment de masse et de l’argent sale présents sur le marché restent toutefois et de loin les organisations criminelles de grande envergure (mafias, cartels), notamment grâce au trafic de stupéfiants. Blanchiment : la mondialisation financière et le capitalisme dérégulé, des opportunités pour le crime organisé D’après Rhoda Weeks-Brown, conseillère directrice du département juridique du FMI, le blanchiment d’argent représenterait entre 1 600 et 4 000 milliards de dollars par an, soit 2 à 5 % du PIB mondial ou près de 3 000 milliards en moyenne ou 10 milliards de dollars par jour, dont 600 milliards chaque année rien que pour le trafic de stupéfiants 7 . Selon la définition du Gafi, le blanchiment de capitaux consiste à « retraiter des produits d’origine criminelle pour en masquer l’origine illégale, de manière à légitimer des biens mal acquis ». Tout trafic ou activité illégale d’envergure nécessite à un moment ou à un autre d’être blanchi, recyclé dans l’économie légale, afin que les organisations criminelles puissent l’utiliser. La méthode classique consiste à créer des entreprises qui perçoivent l’argent illégal et le transforment en gain légal transférable dans des institutions bancaires officielles. Les pays où l’argent est blanchi sont d’abord ceux ayant des législations fiscales et réglementations bancaires particulières et/ou utilisant le secret bancaire. Une fois les fonds entrés dans le système financier, ils « sont réintroduits dans des activités économiques légitimes (immobilier, produits de luxe, création d’entreprises) », processus facilité par les nouveaux moyens de paiement, la libéralisation et la dérégulation des marchés financiers. Il serait en effet naïf de croire que les criminels sont de simples délinquants analphabètes, car les personnes en charge des comptes et du blanchiment dans ces organisations sortent souvent des meilleures écoles. Ils connaissent donc parfaitement le système bancaire et les façons de procéder pour blanchir l’argent grâce aux moyens légaux, via des techniques de plus en plus complexes (que ce soit à réaliser comme à démanteler). C’est grâce au blanchiment que les organisations criminelles perdurent, faute de quoi elles ne pourraient pas réinvestir. « Dans de nombreux pays, elles possèdent des secteurs entiers de l’économie. Les fonds qu’elles détiennent seraient d’au moins 4 000 milliards de dollars ». Le blanchiment de capitaux permet à la criminalité organisée d’acquérir ou de contrôler des pans entiers de l’économie par ses investissements. Si l’on compare les moyens humains et financiers des organisations criminelles à ceux des organismes de lutte, on se rend compte que le combat est inégal : les mafias regroupent bien plus de monde et surtout des sommes d’argent beaucoup plus importantes... À titre d’exemple, le budget de Tracfin (organisme de lutte contre le blanchiment international) est de quelques millions d’euros seulement, somme dérisoire comparée à celles des mafias. Le trafic de drogue, entreprise presque aussi lucrative que le pétrole ! En se référant aux données de la production de drogue dans le monde fournies par l’United Nations Office on Drugs and Crime 8 (UNODC) et Europol, on évalue le revenu mondial annuel du trafic de drogue entre 600 et 1 000 milliards de dollars. La production de la seule cocaïne aurait atteint le niveau record de 1 976 tonnes en 2017. « La drogue représenterait la 3 e économie du monde, après le pétrole et l’alimentation, devant les ventes d’armes (dont une partie est vendue en contrebande). Avec un chiffre d’affaires d’environ 1 000 milliards de dollars, le commerce de la drogue est de surcroît très rentable, puisque les bénéfices atteindraient la moitié de cette somme avec 80 % blanchis 9 . » Pour la distribution, le plus grand marché identifié est sans surprise l’Amérique du Nord, qui absorbe à elle seule 44 % des ventes, suivie par l’Europe, avec 33 %. Ceci nous rappelle qu’il n’y a pas de vente de drogue sans consommateurs, notamment dans les pays riches, et que la demande en Occident découle aussi d’une culture de l’addiction et de l’hédonisme inhérente aux antivaleurs véhiculées par McWorld et les stars ou antimodèles du show-biz. Pour ce qui est de l’Europe, le marché de la drogue a été estimé à 30 milliards d’euros en 2017, selon Europol 10 , le marché du cannabis détenant la première position, avec le Maroc comme premier fournisseur. Le même organisme international a recensé 5 000 groupes criminels internationaux organisés sévissant dans des pays de l’Union européenne, plus d’un tiers d’entre eux se livrant au trafic de drogue 11 . Le trou noir narco-islamiste afghan Depuis l’invasion soviétique (années 1980) et les guerres civiles de 1980-1990, jusqu’à la montée en puissance des talibans en 2000, l’Afghanistan est devenu la capitale mondiale de l’opium. La culture du pavot s’y est imposée très tôt (1950), comme une source de revenus importante pour les paysans, car facile à cultiver, peu consommatrice d’eau, et donc très rentable (bien plus que le blé). L’Afghanistan est le premier producteur d’opium, avec 90 % de la production mondiale. Selon l’ONUDC, la moitié des revenus des talibans (voire 65 %) en proviendrait. L’emploi et la sécurité que les talibans ont apportés à la population grâce au trafic leur ont permis de gagner le soutien de celle- ci, notamment la partie rurale pachtoune. L’ONUDC a estimé que les groupes terroristes et insurgés ont recueilli environ 150 millions de dollars en 2016 grâce au commerce afghan d’opiacés, et aux taxes prélevées sur la culture du pavot. Le Pakistan, par sa proximité avec l’Afghanistan, connaît de gros problèmes de santé publique liés à la consommation de stupéfiants : l’héroïne y est la drogue la plus consommée avec une forte augmentation chez les adolescents. Idem en Iran, où le ministère de l’Intérieur a annoncé en 2018 que 3 % de la population était dépendante. Par ailleurs, 75 tonnes d’héroïne arriveraient chaque année en Russie 12 , où l’impact est également très fort, de même dans les pays d’Asie centrale, au Tadjikistan par exemple, où le trafic venant d’Afghanistan générerait environ 2,7 milliards de dollars par an, ce qui en fait une source de revenus bien plus importante que les activités légales. Sur la route du nord qui relie l’Afghanistan au marché européen opèrent des organisations criminelles qui utilisent des voitures de luxe avec des cachettes sophistiquées et impossibles à détecter, même avec des scanners ultraperformants de dernière génération fournis par les États-Unis. Ainsi, en 2019-2020, à la suite d’opérations policières entre plusieurs pays, ces gangs, basés notamment à l’est de la Turquie, ont fait passer de l’héroïne afghane à travers l’Iran, l’Asie centrale, la Russie, la Pologne et l’Allemagne avec pour destination finale les Pays-Bas. Une véritable multinationale fonctionnait dans tous ces pays en s’appuyant sur les diasporas turques de Hollande. C’est ainsi qu’en 2019, une saisie record a été effectuée au Kazakhstan avec plus d’une tonne d’héroïne dissimulée dans des grosses plaques de marbre livrées depuis une usine iranienne. Aujourd’hui, le bilan est plus que catastrophique : les talibans reviennent sur le devant de la scène par l’accord historique signé le 29 février 2020 à Doha avec les États-Unis, après une guerre de près de vingt ans menée pour les éliminer... Cet accord est la marque du profond échec américain dans la région qui se double d’un gâchis de 800 milliards de dollars. Cet accord engage les Américains à retirer progressivement leurs troupes présentes dans le pays, ce qui constitue un véritable danger pour le Gouvernement et le peuple afghans, car il acte que les talibans sont redevenus assez puissants pour négocier avec Washington et qu’ils pourraient, par la suite, revenir en force sur la scène politique du pays. Des pourparlers pour un nouvel accord ont débuté le 12 septembre 2020 13 , les talibans espérant avoir les mains libres avant l’automne 2021, date à laquelle les troupes américaines devraient avoir entièrement quitté le pays, si Joe Biden ne revient pas sur cette décision de Donald Trump. Le gouvernement afghan serait alors à la merci des talibans, qui contrôlaient déjà 80 % du pays en juillet 2021. Géographie du crime organisé Bénéficiaires nets de la mondialisation marchande, les groupes criminels et mafieux, qui gèrent des territoires et quartiers défendus si besoin par les armes – tout en étant connectés à des réseaux mondiaux d’approvisionnement et d’exportation –, sont les champions de la « glocalisation » (alliage de mondialisation et de local). Ils savent s’adapter à n’importe quel changement socio-économique et peuvent modifier le système en place en faveur de leurs intérêts. Ils instaurent des méthodes de gestion sophistiquées et des logistiques internationales et locales performantes qui permettent d’acheminer les marchandises criminelles sur des dizaines de milliers de kilomètres. La mondialisation a permis d’étendre le crime organisé sur les cinq continents, avec son lot de violence, de corruption et de déstabilisation sociale. L’Europe occidentale elle-même n’a pu échapper à certaines formes de criminalité organisée et territorialisée, dans de nombreux quartiers de non-droit et de contre-société qui vivent de facto sous le contrôle de narcopouvoirs locaux. À l’échelle globale, les zones les plus criminogènes se situent dans les milieux les plus défavorisés, nomment d’Amérique centrale (Salvador, Honduras, Mexique, Haïti...), du Sud (Brésil, Bolivie, Pérou), du Caucase, des Balkans, d’Asie centrale (Afghanistan, Ouzbékistan, Tadjikistan) et d’Asie du Sud-Est, mais également de l’Afrique (Nigeria, Somalie, Maroc, etc.). Les mafias et autres organisations criminelles ont d’ailleurs tout intérêt à maintenir la population de leurs territoires dans la pauvreté et l’illettrisme afin d’augmenter leur pouvoir d’attraction et leur emprise. On le voit par exemple en Amérique du Sud, où la culture de la coca (comme le cannabis au Maroc) permet à des centaines de milliers de paysans de survivre 14 . Les pays de l’Est européen ne sont pas en reste : les organisations criminelles y sont particulièrement développées (Kosovo, Albanie, Russie, Bulgarie, Serbie, Monténégro, Turquie). La drogue qui entre aux États-Unis transite par les Caraïbes, l’Amérique centrale, les Andes. Les trois principales productions ont longtemps été situées dans le Croissant d’or (Pakistan, Iran, Afghanistan) et le Triangle d’or pour l’opium (Birmanie, Thaïlande, Laos) et la Ceinture blanche pour la cocaïne (Colombie, Bolivie, Pérou, Équateur, Brésil). Aujourd’hui, c’est l’Afghanistan qui concentre la majorité de la production mondiale de l’héroïne. Toutefois, la zone de consommation est essentiellement, en termes de valeur, l’Europe occidentale et l’Amérique du Nord. Les produits stupéfiants naturels sont nombreux, mais la légalisation du cannabis dans certains endroits (Espagne, Pays-Bas, Californie) a donné lieu à un développement de la production d’amphétamine, d’opioïdes, d’ecstasy ou d’autres drogues de synthèse fabriquées dans des laboratoires clandestins extrêmement mobiles. Afin d’échapper aux saisies, les trafiquants modifient donc sans cesse des composants, souvent légaux, avant de les utiliser comme psychotropes. Ces drogues sont très souvent vendues au moyen du Darknet et produites en masse en Chine, notamment, dont les réseaux criminels bénéficient d’une grande partie des délocalisations et sous-traitance de productions chimiques occidentales, créant ainsi une distinction compliquée entre drogues et médicaments... L’Asie du Sud-Est est d’ailleurs aujourd’hui l’épicentre du trafic mondial de drogue de synthèse, avec un chiffre d’affaires de plusieurs dizaines de milliards de dollars par an provenant de laboratoires clandestins. La production de drogue est telle que, même avec les saisies records de ces dernières années, les trafiquants sont toujours capables de remplacer leurs marchandises pour agir efficacement sur l’offre. Les organismes de détection et de répression ne doivent donc plus mesurer leur succès aux quantités de drogue saisies, mais plutôt au nombre d’organisations et de groupes criminels transnationaux spécialisés dans le trafic de drogue démantelés. Or, il faut pour cela recourir à des méthodes de plus en plus sophistiquées, développer une masse critique de connaissances de base et veiller à l’échange d’informations opérationnelles entre les organismes de détection et de répression et les unités spécialisées de différents pays. Par ailleurs, le « modèle économique » des groupes criminels organisés évolue, et ils se transforment en réseaux de plus en plus indépendants et difficiles à contrer. Ils ont même souvent une longueur d’avance sur les États, dont l’évolution des procédures judiciaires et des lois est bien plus lente que la capacité d’adaptation des mafias. De plus, les moyens pour le transport des marchandises sont de plus en plus sophistiqués : les groupes criminels transportant leurs drogues par des « narco-sous-marins », des drones, des bolides et porte-conteneurs sont de plus en plus difficiles à détecter. Certains ont par exemple été interceptés en Espagne avec 3 tonnes de cocaïne en 2019 15 , et d’autres opérations antidrogue ont même permis de saisir plus de 5 tonnes de stupéfiants dans un sous-marin artisanal au large du Panamá... Mafias italiennes Les mafias italiennes constituent un véritable phénomène en Europe parce que ces OCT, qui bénéficient de complicités d’une partie des populations les plus défavorisées et des classes politiques du sud de l’Italie, sont les plus anciennes, les plus enracinées et les plus popularisées. Ces organisations sont aussi fort très présentes au niveau international et pour elles, l’ouverture des frontières inhérentes à l’espace Schengen a été une véritable aubaine, tout comme l’ont été en général la mondialisation et la libre circulation des biens, des personnes et des services chères aux responsables européens. À l’origine, le phénomène était purement local et territorialisé, toutefois, après 1945, les mafiosi ont largement profité de l’immigration massive d’Italiens aux États-Unis, en Amérique latine, en Europe, en Australie et au Canada, pour étendre leur réseau criminel à l’échelle planétaire. La plus célèbre, Cosa nostra, pur produit de la mondialisation anglo-saxonne dans sa version moderne, s’est implantée aux États-Unis, au Canada et en Italie pour y régner sur le crime, avant d’être remplacée ces dernières décennies par des mafias italiennes concurrentes calabraise et napolitaine : la Camorra en Campanie, la N’dranghetta en Calabre (la plus puissante et la plus traditionnelle). La Sacra corona unita des Pouilles et la Stidda en Sicile sont plus récentes, mais elles sont bien moins puissantes que les pieuvres napolitaine et calabraise. Selon le criminologue Francesco Calderoni, professeur à l’Università Cattolica del Sacro Cuore de Milan et chercheur au Transcrime (centre de recherche sur le crime international), le montant annuel des gains de ces mafias serait de 10,7 milliards d’euros par an, soit 0,7 % du PIB italien. L’extorsion de fonds demeure, avec la drogue, l’activité principale. La Camorra et la N’dranghetta engrangent aujourd’hui les plus hauts revenus, avec respectivement 3,3 et 3 milliards d’euros annuels, et ces mafias ont dépassé de loin la Cosa nostra sicilienne, désormais moribonde après avoir été presque vaincue par l’État italien suite aux excès du parrain Toto Riina et à sa folle tentative de défier l’État par le terrorisme, ce qui a provoqué une série de dénonciations de « repentis » et des représailles judiciaires sans précédent dans les années 1992-1997. Elles totaliseraient 68 % des activités mafieuses en Italie. On a recensé depuis toujours les ingérences de la mafia dans la politique italienne, surtout dans la partie sud de l’Italie. D’après l’Autorité nationale anticorruption (Anac 16 ), le secteur le plus touché par la corruption est celui des travaux publics, suivi de la gestion des déchets, très prisé par les mafias calabraise et napolitaine, qui les enterrent illégalement dans le sol italien 17 ou ailleurs comme dans les pays de l’Est. D’après le rapport sur la corruption de l’ONG Transparency International 18 , l’Italie, avec 51 points sur 100 et classée 51 sur 198, fait partie des pays les plus corrompus d’Europe. Depuis des décennies, même des villes du Nord comme Turin ou Milan, de tradition non mafieuse, ont été investies par les mafias du Sud, surtout la N’dranghetta. Ceci dit, la mondialisation marchande, couplée à la généralisation de la consommation de drogues dures et douces en Occident depuis la révolution libertaire de 1968 et l’intériorisation, par les jeunes, des codes des stars du pop, a offert d’immenses marchés aux autres mafias qui se sont multipliées au point que les clans italiens ont été concurrencés par ceux venus des Balkans (mafias serbes et surtout albano-kosovares), du monde turcophone (clans turcs et kurdes), du Caucase (Tchétchènes, Géorgiens et Arméniens), d’Asie (triades chinoises), d’Afrique (mafias nigérianes) et, bien sûr, d’Amérique latine (narcocartels colombiens et surtout mexicains). Mafias albanaises Les mafias albanaise et kosovare sont en progression constante depuis trois décennies en Europe et dans le monde. Favorisées par la mondialisation et la chute du communisme soviétique et yougoslave, elles se sont développées dans les années 1980-1990 avec l’ouverture des frontières et l’éclatement de l’ex-Yougoslavie, fruits des interventions militaires américaines (1992-1999). Quelques années plus tard, en 2007, l’indépendance officielle du Kosovo – déjà séparé de facto de la Serbie depuis lors – a permis le renforcement du crime organisé transnational albanophone dans tout le monde occidental à partir de ses bases ethnogéographiques balkaniques (Kosovo, Macédoine, Albanie, sud-est du Monténégro ou « Croissant balkanique »). Ces clans mafieux prospèrent parmi les diasporas albanophones d’Europe essentiellement implantées en Grèce, en Italie, en Suisse, en France, en Allemagne, en Belgique, ou en Autriche, ainsi qu’en Amérique du Nord. Ils sont « spécialisés » dans le trafic d’êtres humains, de drogue et d’organes (héroïne et cannabis), la prostitution industrielle, les cambriolages et les braquages 19 . Ces activités généreraient un « chiffre d’affaires » annuel de plusieurs milliards de dollars 20 . Composées de familles ou clans qui fonctionnent par les liens du sang et leur code d’honneur, le Kanun (vendettas intergénérationnelles, loi du silence), ces organisations sont très imperméables (peu de repentis) et aussi caractérisées par une extrême violence, bien plus encore que les mafias géographiquement proches et rivales de Serbie ou du sud de l’Italie qu’elles ont concurrencées, voire parfois éradiquées dans certaines zones (Suisse, notamment). Ladite mafia albanaise – en réalité composée de clans autonomes albanais, kosovars, macédoniens et monténégrins – s’est principalement étendue après la quasi-guerre civile survenue en Albanie en 1997, à la suite d’une grave crise financière, puis consécutivement à la guerre du Kosovo (1998-1999), de nombreux Albanais d’Albanie et d’ailleurs ayant obtenu un statut de réfugié politique en prétendant être des Kosovars victimes des Serbes (ils l’étaient vraiment parfois). Les flux de migrants albanais qui ont étoffé les diasporas ont constitué des terreaux de recrutement et des bases de rackets et de trafics 21 pour les clans mafieux qui ont profité de l’ouverture des frontières intereuropéennes. La manne des éventuels fonds structurels européens fait également rêver. Cette expansion de la criminalité organisée albanophone en Occident a été sans contexte accentuée par le rapprochement des Balkans avec le reste de l’Europe (échanges commerciaux, candidature à l’euro et à l’UE, accords dans le cadre du voisinage de l’UE, adhésions de l’Albanie à l’Otan...), puis par le fait que des clans mafieux ont trouvé un appui au plus haut sommet de l’État kosovar, lui-même dirigé par les anciens cadres de l’organisation albanaise UÇK (Ushtria Çlirimtare e Kosovës, Armée de libération du Kosovo), groupe paramilitaire terroriste lié aux réseaux criminels albanais. D’évidence, ces organisations voient la perspective de l’entrée – à terme – de l’Albanie dans l’Union européenne comme une véritable aubaine car cela permettrait de libéraliser les flux de biens, de personnes et de capitaux, et de rendre encore plus aisés les acheminements de stupéfiants et les trafics d’êtres humains. Du point de vue des services de sécurité européens, le Kosovo – créé entre 1999 et 2007 avec l’appui américano-atlantiste –, État jamais reconnu par la Russie, la Serbie, l’Espagne et d’autres pays membres de l’ONU, peut être considéré depuis sa création comme un État mafieux, à l’instar de certains États fédérés mexicains aux mains des cartels. Rappelons seulement que l’ancien président du Kosovo, Hashim Thaçi, ainsi que d’autres fondateurs de cet État sont directement issus du « Groupe de Drenica 22 », l’ex-UCK, organisation terroriste séparatiste elle-même liée à la mafia albanaise. Ce fait a été établi par la Cour pénale internationale de La Haye pour les crimes en ex-Yougoslavie 23 (CPIY). D’après un document du rapporteur du Conseil de l’Europe, Dick Marty, l’UÇK aurait en effet été impliquée dans maintes activités criminelles (trafics de drogue, de cigarettes et d’organes) comme dans l’accaparement des grands secteurs de l’économie kosovare 24 . Le trafic de drogue (héroïne et cannabis) est la principale activité des clans albanais. Pour l’héroïne, la source d’approvisionnement majeure est aujourd’hui l’Afghanistan (via la Turquie et les Balkans), les destinations et marchés de prédilection étant les pays d’Europe de l’Ouest. Les Balkans jouent en fait le rôle de plaque tournante obligée des drogues acheminées depuis l’Asie centrale vers l’Occident, via l’Italie et la Suisse, principaux pays d’accueil et de passage des diasporas albanophones. En plus d’être leaders pour la distribution, l’Albanie et le Kosovo sont également aujourd’hui d’importants producteurs de cannabis à destination de l’UE, concurrençant ainsi le narco-État marocain. En témoigne l’augmentation en Italie des saisies de cannabis en provenance d’Albanie, passées de 42 tonnes en 2016 à plus de 90 tonnes en 2017 25 , ce qui reflète l’intensification du trafic sur l’ensemble de la mer Adriatique. D’après le rapport d’Europol 2019 sur le trafic de drogue, les mafieux albanais sont également devenus des acteurs clés du trafic et de la distribution de cocaïne, jadis quasi monopolisés par les cartels latino- américains en collaboration avec les mafias italiennes pour l’acheminement vers l’Europe. En avril 2019, une importante opération d’Europol 26 menée en coopération avec la France, la Belgique, l’Italie et les Pays-Bas, a ainsi permis l’arrestation, pour trafic de drogue, d’êtres humains et blanchiment d’argent, de plus de 60 membres de clans albanophones. Autre indice révélateur de leur expansion vers l’Europe, notamment la France, le nombre d’Albanais et de Kosovars dans les prisons françaises a bondi de 340 % entre 2011 et 2017 27 . Le dernier événement médiatisé en date concerne une guerre de clans kosovars débutée en 2013, qui s’est notamment soldée par l’assassinat d’un homme à Frasses (Suisse) et par la mort de 23 autres et des dizaines de blessés au Kosovo 28 . Les cartels d’Amérique centrale Les narcos ont été les grands bénéficiaires de l’ouverture des frontières – chère aux démocrates américains et aux ONG immigrationnistes – et des traités de libre-échange des années 1990 (Nafta) inhérents à la mondialisation anglo-saxonne. Cinq principaux cartels 29 mexicains contrôlent de vastes zones où ils sont souvent capables de commander aux gouverneurs des États fédérés. Le cartel de Sinaloa, par exemple, contrôle toute la partie nord-ouest du Mexique. Il s’est taillé une solide réputation grâce à son célèbre leader El Chapo et à sa violence extrême qui n’a souvent rien à envier à Daesh, avec plus de 200 000 morts sur une période comparable de onze ans et la terreur permanente provoquée par les démembrements et les décapitations... Avant d’être arrêté en février 2014 aux États- Unis, ce parrain était devenu le principal acteur du trafic international de cocaïne, profitant d’un pacte avec le Gouvernement qui consistait en l’injection de narcodollars dans l’économie mexicaine légale en échange de protection. Le trafic de stupéfiants illicites aux États-Unis, en Europe et en Asie lui rapportait un chiffre d’affaires annuel de 3,5 milliards de dollars 30 . On sait qu’à partir de 1995, il y a eu un changement dans les relations entre pouvoir légal et cartels lorsque la politique économique a mis les institutions publiques au service des marchés internationaux, ce qui a abouti simultanément à la décentralisation du pouvoir légal et à la régionalisation des cartels. On a alors assisté à un renversement du pouvoir au profit des groupes criminels qui ont su profiter du système capitaliste-libéral en se faisant reconnaître comme des entrepreneurs privés, autrement dit des multinationales du crime contribuant au développement économico-social du pays... Il en a été de même pour tous les grands cartels du pays, qui se sont constitués et renforcés par des alliances avec les autorités politiques. « Les narcos font des affaires et partagent leurs profits avec les politiques ; les politiques disposent du monopole de la légitimité et redistribuent une partie des profits des narcos pour l’entretien de leurs clientèles sociales sous forme d’aides personnalisées informelles ou de services publics 31 . » Ils sont devenus si puissants et indispensables que tout le monde en profite : les trafiquants, leurs « alliés » politiques, les banquiers blanchisseurs, les entrepreneurs et commerçants, leurs employés directs, ainsi que les paysans qui cultivent les plantes et leurs familles. Le profit injecté dans l’économie légale permet même d’assurer la croissance du PIB et de réduire en partie la pauvreté dans un pays dont le taux de précarité est déjà très élevé. Le cartel Nouvelle Génération de Jalisco, qui contrôle principalement la région de Tierra Caliente, au Mexique, est par exemple un expert de la distribution de drogues synthétiques sur le continent et entretient des liens étroits avec les marchés asiatiques de la drogue. « 60 à 80 % de la cocaïne consommée aux États-Unis y entre par la frontière mexicaine ; 50 à 70 % de la consommation de marijuana des États-Unis et 20 à 30 % de l’héroïne 32 . » Au niveau des différents cartels et gangs répertoriés, 19 sont considérés comme d’envergure nationale avec des ramifications aux États-Unis, et 5 d’ampleur internationale (cartels du Golfe, de Juárez, de Sinaloa, de Tijuana et de Valencia). Le narcotrafic serait l’employeur direct de près de 400 000 personnes au seul Mexique 33 . Même avec nombre de leurs membres et dirigeants derrière les barreaux, les organisations sont toujours actives et gèrent les trafics depuis leur prison. « La famille la plus puissante, la famille Félix Arellano, aurait contrôlé près de 70 % de la cocaïne transitant à travers le monde », écrit Éric Vernier. Dans la même zone, on peut retrouver les maras, présents au Salvador et Honduras principalement. Dans certains territoires, les narcocartels ont acquis un tel pouvoir politique qu’ils y redistribuent eux-mêmes les richesses et y choisissent les candidats aux élections 34 . Ils parviennent à recycler leurs profits dans des activités légales où ils contraignent propriétaires et entrepreneurs à leur céder des titres. Ils développent ainsi en quasi-impunité leurs activités d’enlèvement contre rançon, de trafic de stupéfiants, d’armes et de migrants, ces derniers étant transformés en passeurs de drogue. Les cartels assurent souvent eux- mêmes l’ordre public en prenant la place de l’État, contrôlant les polices locales et installant des barrages de contrôle routier... Récemment, on a pu se rendre compte de l’incroyable puissance des cartels mexicains lors de la tentative d’arrestation du fils d’« El Chapo », qui a débouché sur un affrontement à l’arme de guerre entre le cartel et les forces mexicaines, soldé par huit morts, une quinzaine de blessés et la libération du prisonnier par le Gouvernement 35 . On peut aussi citer l’attaque contre le chef de la police de Mexico, Omar García Harfuch, miraculeusement réchappé après qu’une douzaine d’hommes armés de grenades et de fusils d’assaut ont pris pour cible sa camionnette blindée 36 . Les cartels ont depuis quelques années commencé à créer des enclaves autonomes dans une explosion de violence qui s’apparente à une guerre contre l’État mexicain. Le cartel de Sinaloa, par exemple, aurait exécuté à lui seul plus de 30 000 personnes en vingt ans... La carte de la violence au Mexique montre non seulement des niveaux élevés de perception de l’insécurité – qui, au cours de l’année 2020, a atteint 64,5 % de la population et dans les zones urbaines 73,7 % –, mais aussi une augmentation réelle de 16 % du taux de victimes de la criminalité. Entre 2007 et 2018, le nombre d’homicides a plus que doublé, passant d’un taux de 9,3 homicides pour 100 000 habitants à 21,1 en 2018. À elle seule, l’Amérique latine concentre environ 36 % de l’ensemble des homicides dans le monde. Dans nombre d’États fédérés mexicains, les cartels se substituent à l’État, fournissant des aides à la population en échange de leur soutien. En pleine crise de la Covid-19, on a pu ainsi voir apparaître publiquement en star et patriarche Nemesio Oseguera Cervantes, El Mencho, le chef du cartel de Jalisco. Ce parrain a fait construire son propre hôpital privé pour ne pas avoir à se rendre dans une institution publique, la population locale pouvant elle aussi avoir accès à ces services, ce qui rappelle Pablo Escobar se faisant construire sa propre prison. Les cartels sont les grands gagnants de la pandémie, car la crise du coronavirus leur a donné une nouvelle emprise sur les populations, en leur conférant de facto le statut d’organisation de charité, de pourvoyeur de nourriture, de médicaments ou de matériel de protection dont les Mexicains manquaient. Aujourd’hui au Mexique, la confiance de la population en l’État est rompue, la violence extrême s’est démocratisée et la peur s’est installée. Toutes les solutions mises en place pour endiguer le crime ont échoué. Dans ce pays désormais failli ou plutôt gangrené, soit on négocie avec les narcos et on accroît la corruption, soit on les réprime et on accentue la violence. Le lien entre force de l’ordre et narcos est d’ailleurs désormais ancré dans la structure même du système politique du Mexique. Mafias russophones Profitant de la troisième vague de mondialisation qui a été permise dans les années 1980 par la fin de l’ex- URSS, le crime organisé en provenance de l’espace ex-soviétique, très différent des mafias précitées, et bien plus lié aux affaires et grandes sociétés, s’est propagé grâce à la libre circulation des biens, des personnes et des services bien au-delà des frontières de l’ex-URSS : Europe de l’Ouest, États-Unis, Méditerranée orientale, et même jusqu’en Australie. De puissants réseaux et groupes russophones – souvent non russes ethniquement – y ont blanchi leurs capitaux, illégalement acquis dans le cadre du pillage de la Russie postsoviétique dans un contexte de libération anarchique (époque de Boris Eltsine). Les domaines sont surtout l’hôtellerie de luxe, la restauration et les investissements immobiliers. Selon Interpol, 40 % du PIB russe serait contrôlé par des groupes criminels indigènes. Mikhail Orskii, écrivain et ancien chef d’un groupe criminel dans les années 1990, déclarait récemment, dans une interview au journal Moskovskii Komsomolets, qu’aujourd’hui, 431 « chefs mafieux » ou « voleurs dans la loi » sont en action, dont des Géorgiens (242), des Russes (51), des Arméniens (30), des Yézidis (26), des Azerbaïdjanais (16), des Abkhazes (10), des Tchétchènes (8), et des Israélites, ce qui permet de relativiser le terme générique abusif de « mafias russes 37 ». Des réseaux du crime organisé russe et géorgien sont régulièrement démantelés par la police espagnole dans les régions de la Costa Brava et de la Costa del Sol, la Catalogne étant une zone privilégiée en raison des proximités avec le paradis fiscal d’Andorre et la France. C’est ainsi qu’en décembre 2020, suite à une enquête policière qui a duré sept ans, l’opération Testudo, les forces de police espagnoles ont arrêté 23 personnes liées aux réseaux mafieux russes, qui opèrent dans les villes d’Altea, Alicante, Finistrat, Ibiza, Madrid et Valence 38 . Dans son livre sur le crime organisé russe 39 , Mark Galeotti explique que, « dans l’ensemble, la pègre russe n’est pas définie par des structures hiérarchiques comme la mafia italienne ou le yakuza japonais, mais par un écosystème souterrain complexe et varié ». Galeotti indique qu’il existe six à douze groupes russophones de type mafieux structuré. Certains sont simplement définis par des intérêts communs (Solntsevo), ou par une culture, une religion ou une langue commune (Tchétchènes, Géorgiens, etc.). D’autres sont ancrés autour d’individus (groupe de Tariel Oniani), ont une orientation territoriale précise (Saint-Pétersbourg, Tambovskaya ou l’Association des voleurs d’Extrême-Orient), ou sont dominés par des activités criminelles spécifiques, comme les routes de contrebande. On peut citer également le carrefour criminel des « Ukrainiens », qui opèrent à travers la frontière russo-ukrainienne. La plupart des réseaux mafieux plus vastes qui couvrent une région sont essentiellement confinés dans des zones particulières, comme le gang Uralmash d’Ekaterinbourg, aujourd’hui. Les groupes mafieux des villes de plus grande taille sont dominés par des Azéris et des Géorgiens – comme le célèbre Tariel Oniani (« Taro »). Beaucoup se livrent au racket de protection, fournissant ce que l’on appelle krysha – un « toit » – aux entreprises et aux particuliers résidant sur « leur territoire ». Les pots-de-vin et les « raids » (saisie d’actifs au moyen de faux documents et de fausses réclamations juridiques) sont en pleine hausse. Certains de ces gangs sont également actifs dans le trafic de drogue, la contrefaçon ou l’esclavage moderne. À la différence des cartels mexicains ou albano- kosovars, il n’existe pas de preuve d’ingérence mafieuse dans le pouvoir politique, sauf à des niveaux inférieurs. Par contre, le Kremlin utilise souvent ces groupes criminels comme des instruments secrets dans le cadre de liens de corruption et de missions spéciales. Bien que le niveau de violence ait spectaculairement chuté depuis les années 1990, en grande partie en raison de la pression de l’État, les meurtres contre rémunération, les extorsions et les règlements de compte violents (les razborka) restent des activités essentielles des gangs. Mafia nigériane Parmi les organisations criminelles africaines, la mafia nigériane offre l’exemple le plus abouti d’une internationalisation du crime via les flux migratoires. Les organisations mafieuses nigérianes sont apparues depuis des décennies en Afrique, et plus récemment en Europe, dans le cadre d’une « division internationale du travail » criminel. Cette mafia est née au début des années 1980, après la crise pétrolière, ressource clé du pays, qui a conduit les groupes au pouvoir à rechercher le soutien de criminels pour conserver leurs privilèges, à la suite de la baisse du cours du baril. Ainsi protégée, la criminalité nigériane a pu développer ses trafics, aidée non seulement par le soutien d’une partie du monde politique du pays mais aussi par le contrôle limité que l’État exerce sur le vaste territoire national. Présentes dans de nombreux pays (Allemagne, Espagne, Portugal, Belgique, Roumanie, Royaume-Uni, Autriche, États-Unis, Croatie, Slovénie, République tchèque, Hongrie, Ukraine, Pologne, Russie, Brésil, Malte et Italie), les mafias nigérianes sont actives dans l’héroïne, la cocaïne, la mendicité et la prostitution au sein des communautés diasporiques nigérianes ou africaines du monde entier. Aux côtés de Black Axe (ou la « Hache noire »), on peut citer la Supreme Eiye Confraternity (la « Confrérie suprême Eiye »). Ces noms se sont progressivement frayé un chemin dans le lexique des polices européennes pour prendre place aux côtés de ceux d’autres organisations mafieuses. Sur leur terre d’origine, ces entités connues de longue date ont pris diverses formes avant de tremper dans la criminalité. Comme les autres groupes mafieux, la Black Axe est organisée en une structure pyramidale qui utilise l’intimidation et la violence pour s’implanter, son activité principale – et celle des mafias nigérianes en général – étant la prostitution industrielle, fortement développée par le biais des trafics des migrants reconvertis en trafics d’esclaves sexuels internationaux. Le centre névralgique nigérian de cette traite est Benin City, situé dans l’État d’Edo, au sud du Nigeria, plaque tournante de la prostitution, d’où de nombreuses filles sont envoyées à l’étranger pour se prostituer, souvent sans le savoir au départ. Ainsi, des milliers de jeunes Nigérianes – plus nombreuses encore que les Roumaines et les Albanaises – font le trottoir en Italie et partout dans les villes européennes, après avoir été achetées à des familles pauvres, à qui on fait miroiter des études en Europe. La logistique de leur acheminement, via la Libye, notamment, est organisée par des correspondants de la Black Axe dans les différents pays de transit. Une fois sur le sol italien, elles sont séquestrées et brutalisées. Leurs proches restés au pays sont menacés de mort si la filière est dénoncée par les filles dont les papiers sont confisqués. La mafia nigériane a établi des règles en Italie et en Europe : refusant l’usage d’armes à feu, elle assoit son autorité par la machette et la hache (Black Axe signifie « Hache noire »), et agit en Italie, dans la région de Naples, notamment, en sous-traitant de la Camorra. Le trafic de drogue est aussi prisé par cette mafia qui offre des tarifs encore plus bas que les organisations concurrentes. Elle développe d’ailleurs de plus en plus les drogues de synthèse qui envahissent l’Afrique 40 . Selon les statistiques du ministère italien de l’Intérieur, des dizaines de milliers de migrants africains arrivés en Italie depuis le début de la crise migratoire libyenne (2011-2015) – dont beaucoup de Nigérians – forment ainsi la première communauté de demandeurs d’asile en Italie, avec 83 870 requêtes. La justice italienne s’inquiète non seulement d’un rapprochement entre les organisations criminelles nigérianes et les pieuvres italiennes classiques, mais aussi de la collaboration d’ONG internationales humanitaires promigrants clandestins et des passeurs acheminant la main-d’œuvre des mafias nigérianes. Un sujet tabou pour maints politiques européens adeptes du mythe de l’immigration bonne par nature. Le 18 novembre 2016, 23 Nigérians soupçonnés d’appartenir à la Hache noire étaient arrêtés par la direction antimafia de Palerme. Ils étaient accusés d’avoir fait entrer illégalement de jeunes Africaines – acheminées clandestinement depuis la Libye vers l’île de Lampedusa avec l’aide active des ONG promigrants clandestins – et de les avoir forcées à se prostituer. Parmi eux se trouvait, selon la police italienne, le « ministre de la Défense » de l’organisation, Kenneth Osahon Aghaku. Là n’est pas le seul clin d’œil à l’État : cette mafia nigériane est souvent formée d’anciens militaires, lesquels reversent une sorte de loyer à la Camorra de Naples. Celle-ci lui « loue » un territoire, notamment les 20 000 logements, immeubles et villas construits illégalement dans les années 1960 par le clan mafieux local des Casalesi. À Castel Volturno, en Campanie (Naples), on peut aujourd’hui croiser des centaines de prostituées esclaves nigérianes dont les « passes » démarrent à 5 euros... Ici, on ne parle plus de prostitution, mais bien de trafic d’êtres humains et d’esclavage. Cette organisation, bien moins médiatisée que les vieilles mafias italiennes, est étonnamment très peu dénoncée, les filles exploitées ne parlant pratiquement jamais en raison de la peur extrême de subir des violences de la part de leurs proxénètes et surtout pour éviter les représailles sur leur famille restée au Nigeria. La raison du silence médiatique et politique sur cette mafia est aussi due au fait que sa dénonciation impliquerait celle de l’immigration clandestine, aujourd’hui dépénalisée... La France, les quartiers de non-droit ou la loi des caïds Assimilables à des zones non souveraines mondialisées, les nombreux quartiers de non-droit en France ne sont pas de simples zones hors contrôle qui abritent les trafics en tout genre, mais des réseaux diasporiques transfrontaliers issus de l’immigration extra-européenne parfaitement connectés à des narco-États et des multinationales de la drogue et du trafic d’armes. En France, la criminalité ne cesse d’augmenter, en grande partie grâce au trafic de drogue, hautement lucratif et belligène, alimenté par la mondialisation et les flux migratoires incontrôlés. Le marché de la drogue a littéralement explosé en France depuis les années 2000 pour atteindre entre 3 et 4 milliards d’euros en 2020, une hausse de presque 1 milliard par rapport à 2010. On recense ainsi en France pas moins de 3 952 points de deal dont 276 dans la seule Seine-Saint-Denis. Ceux-ci sont répartis dans toute la France dans ces « quartiers chauds » ou de non-droit où l’économie du narcotrafic rencontre souvent le processus de contre- société islamiste. La consommation de drogues, douces comme dures, est ainsi en pleine expansion partout en France, avec en tête le cannabis, largement fourni par les réseaux marocains, suivi de la cocaïne (mafias latino- américaines) et de l’héroïne (Afghanistan et mafias albano-turques). Dans l’Hexagone, environ 240 000 personnes vivraient directement du trafic de drogue et feraient vivre à leur tour des centaines de milliers de membres des familles sanctuarisées au sein de zones interdites de facto à la police et en rupture avec l’ordre républicain établi. En ce qui concerne le cannabis, les routes du trafic partent quasi exclusivement du Maroc, via l’Espagne. Les Marocains figurent ainsi en tête des plus gros trafiquants de stupéfiants de France. On peut notamment citer les caïds Moufide Bouchibi, Reda Abakrim, Sofiane Hambli, Bouchaïb El Kacimi, ou bien d’autres encore. L’augmentation exponentielle du trafic de drogue dans les quartiers de non-droit et de non-France, de facto « séparés », s’accompagne de violences, de règlements de compte en hausse et d’ensauvagement de plus en plus endémique. Rien qu’en 2020, la France a ainsi compté 60 morts et 250 blessés du fait des violences dues aux trafics de drogue. Après les Marocains, en tête pour le haschich-cannabis, les réseaux albanais, algériens, manouches et nigériens sont également très présents, l’immigration de masse et le narcotrafic étant intrinsèquement liés, dans un contexte de mondialisation, de liberté et d’ouverture des flux incontrôlés de personnes et de marchandises, que celles-ci fussent légales ou illégales. Cette économie du narcotrafic est par ailleurs légitimée moralement par les réseaux islamistes et indigénistes qui disculpent les caïds (voir saga Adama et Assa Traoré) à la tête de 4 000 quartiers de non-droit de l’Hexagone. Ces forces antinationales révolutionnaires entretiennent toute une contre-culture de haine envers la France et la police « raciste islamophobe », ce qui fait coïncider criminalité d’origine exogène et conflits intercommunautaires. Cette convergence entre crime organisé et confessionnalisme islamiste s’est manifestée au grand jour à Dijon, en 2020, lorsque des affrontements violents ont opposé des gangs maghrébins et tchétchènes à la suite de l’agression d’un jeune Tchétchène, ce qui déclencha l’arrivée subite de 200 Tchétchènes cagoulés et armés de couteaux et barres de fer prêts à en découdre dans le quartier des Grésilles, avec à la clé des dizaines de blessés. Le lendemain, en représailles des descentes antiarabes des Tchétchènes, ce sont des groupes maghrébins qui ont fait une démonstration de force en exhibant des kalachnikovs et fusils à pompe, des scènes totalement surréalistes pour une ville jadis réputée calme comme Dijon. L’issue a été une pax islamica négociée par un imam frère musulman. D’autres événements ultérieurs survenus en mai 2020 en région parisienne, à Avignon (assassinat d’un policier par un dealer) ou ailleurs, ont montré que ce processus durable risque de s’intensifier dans l’avenir en raison de la persistance de l’immigration incontrôlée, du manque de moyens des polices, du laxisme judiciaire, de la crise économique, de l’échec de l’intégration depuis les années 1980, et de la « culture de la drogue » véhiculée par les stars du rap et le show-biz façon McWorld. Drogue et terrorisme : la face cachée mafieuse de Daesh et al-Qaida À l’échelle mondiale, la production et le trafic de drogue, directs ou indirects, sont une source importante de revenus pour les activités terroristes qui sont parfaitement à l’aise dans la mondialisation marchande, tout comme les multinationales du crime. Dans un certain nombre de pays, les ressources issues des trafics de drogue, étant donné leurs enjeux énormes, ont contribué à compliquer et à prolonger maints conflits armés et les ont bien souvent rendus plus meurtriers. En Amérique latine au Moyen-Orient, le financement des groupes armés (Farc, M19, Sentier lumineux, OLP, Hezbollah, PKK, etc.) est dans bien des cas lié aux trafics de drogue, notamment, ou aux « taxes » prélevées sur les trafics. Bien des groupes terroristes comme Aqmi, Aqpa ou Daesh sont impliqués dans ces trafics de drogue ainsi que dans le prélèvement de « taxes » sur les acheminements de cocaïne en provenance d’Amérique latine via le golfe de Guinée. D’après les estimations d’Europol, c’est même le premier revenu des terroristes, avec 330 millions de dollars annuels, devant les hydrocarbures (230 millions). Boko Haram a ainsi été accusé d’aider les trafiquants de drogue au Nigeria et dans les pays voisins, et, entre 2014 et 2017, Daesh en Syrie et en Irak, alors à leur apogée, a carrément produit et exporté le captagon, la « drogue du djihad », dont les terroristes sont de très gros consommateurs et qui représente un marché considérable pour l’État islamique, ainsi que pour les autres groupes terroristes. En Syrie, on a pu le voir en juillet 2020, lors de la saisie de 14 tonnes estimées à 1 milliard de dollars 41 , le Liban étant un des principaux points de passage et même un producteur de cette amphétamine. Selon le journal L’Orient-Le Jour, le marché du captagon s’élèverait à plusieurs dizaines de milliards de dollars par an 42 . L’espace sahélo-saharien est également devenu ces dernières années un nouveau carrefour des trafics de toutes sortes. Outre les trafics de cigarettes de contrebande, chers à Aqmi, celui du haschich dans les années 1990, puis de la cocaïne en provenance de l’Amérique latine depuis l’année 2000, sont des mannes inépuisables. Le haschich, produit en grosse majorité au Maroc, est l’un des trafics les plus stables et « sûrs », du fait de l’expérience des Marocains dans le domaine depuis des décennies. Il s’est principalement développé, tout comme le trafic algérien de cigarettes, par le biais des diasporas immigrées en Europe. La mondialisation et l’ouverture des frontières permettent là aussi d’établir des connexions et d’ouvrir les marchés internationaux et locaux connectés. La cocaïne provenant de l’Amérique centrale transite par la Guinée-Bissau et toute l’Afrique de l’Ouest 43 , avec le Mali comme plaque tournante. Un autre trafic a émergé plus récemment : celui des opioïdes, notamment le tramadol, un antidouleur devenu très populaire qui est un véritable fléau en Afrique de l’Ouest, où les taux d’addiction sont très élevés. L’Afrique constitue d’ailleurs 67 % du marché mondial de ce produit, bien moins cher que la cocaïne et même que le crack. Trafic d’êtres humains et prostitutions : esclavage des temps modernes « L’augmentation inquiétante de la traite des personnes représente aujourd’hui le deuxième trafic mondial après celui des stupéfiants 44 », alerte Éric Vernier, spécialiste reconnu des questions de blanchiment et de criminalité. Au fil des siècles, l’esclavagisme et les trafics d’êtres humains ne se sont jamais arrêtés, y compris dans les pays occidentaux, car cette activité est extrêmement rentable. Dans cette catégorie criminelle et morbide, on inclut non seulement la prostitution, mais aussi le commerce pédophile, les trafics d’organes humains, l’esclavage, les enlèvements et la main-d’œuvre immigrée clandestine ou le travail forcé. Selon l’ONUDC, ce dernier trafic générerait plus de 32 milliards de dollars de recettes annuelles. Aujourd’hui, les conflits, l’instabilité, le sous- développement et le manque d’opportunités économiques sont autant de facteurs qui rendent les personnes ciblées toujours plus vulnérables à l’exploitation. Le trafic d’êtres humains est particulièrement répandu en Asie australe et centrale, tandis qu’en Afrique et au Moyen-Orient, le travail forcé et l’esclavage « traditionnel », ancrés dans des traditions de rivalités intertribales pérennes, sont fort répandus 45 . L’esclavage est toujours d’actualité à notre époque et il est encore largement existant, principalement en Afrique noire : « en Mauritanie, on estime à 30 % le taux de la population soumise au servage. Environ, 250 millions d’enfants travaillent illégalement dans le monde, dont un quart est âgé de moins de 10 ans et 20 000 qui décèdent chaque année d’accidents du travail », écrit Éric Vernier. À l’échelle mondiale, la traite des personnes à des fins d’exploitation sexuelle constitue la forme principale d’exploitation, la prostitution étant très prisée des organisations criminelles avec un important marché européen à la clé, dominé par les mafias des pays de l’Est, notamment albanaise et kosovare. Celles-ci sont encore plus actives sur le continent européen que les mafias italiennes, nigérianes et russes précitées : « Les grandes métropoles d’Europe occidentale (Bruxelles, Londres, Hambourg et Paris) sont la première destination du trafic de femmes originaires de l’Europe de l’Est (République tchèque, Bulgarie, Albanie), contrôlé par la mafia albanaise qui achète et viole ces femmes dans des camps de la région ou les envoie dans des “maisons d’abattage” où elles subissent 200 passes par jour, explique Éric Vernier. Les femmes de l’Est, les Africaines, sont enlevées, achetées ou abusées, violées, torturées et dépossédées de leurs papiers officiels 46 ». La prostitution existe partout, les réseaux de proxénétisme se fournissant dans l’ensemble des pays pauvres : Roumanie, Moldavie, Brésil, Thaïlande, Chine, Corée, Viêtnam, Philippines, Inde, Niger, Guinée équatoriale, etc. Les femmes et les enfants enlevés atterrissent, après différents transferts, sur les trottoirs de Paris, de Hambourg, de Chicago, etc. Les femmes et les filles représentent non seulement la majorité des victimes (72 %), mais aussi quasiment la totalité des cibles l’exploitation sexuelle (94 %). Le trafic et la vente d’enfants sont également assez développés, même en Europe : « Des enfants brésiliens, sénégalais, marocains, chinois, coréens, philippins, dominicains, haïtiens... sont régulièrement achetés ou enlevés pour fournir les pays du tourisme pédophile, notamment la Thaïlande, mais aussi les couples occidentaux en mal d’adoption. Un enfant peut être vendu jusqu’à 100 000 dollars à des familles adoptives américaines, sans aucun contrôle par la suite », poursuit Vernier. Par exemple, un réseau bulgare démantelé en France, en octobre 2006, vendait les bébés 6 000 euros après les avoir achetés 500 euros aux mères biologiques 47 . Le Guatemala est particulièrement touché avec le vol d’enfants de familles paysannes déshéritées, qui rapporte aux mafias locales 200 millions de dollars par an. Jusque dans les années 1990, en Roumanie, les familles occidentales achetaient les enfants alignés devant l’orphelinat. Aujourd’hui en Irak, les enfants sont vendus entre 5 000 et 50 000 dollars selon l’âge. Ils sont aussi victimes de travail forcé (légal ou illégal), comme les Roms que l’on voit mendier dans les rues et métros en France ou dans d’autres pays d’Europe. D’après Juan Martín Pérez, directeur du Réseau pour les droits de l’enfance au Mexique, de nombreux enfants sont régulièrement kidnappés ou embauchés dans ce pays sur fond de narcotrafic et de guerre des cartels. Les plus petits travaillent comme guetteurs ou informateurs, puis à partir de 12 ans, ils sont employés pour s’occuper de maisons, et les plus grands, à partir de 16 ans, s’occupent du trafic de drogue et commencent à être recrutés comme tueurs à gages. Ainsi, « le crime assure aux enfants et adolescents les récompenses, la reconnaissance et l’argent qu’ils ne trouvent pas dans la société légale 48 ». Une fois enlevés, ils peuvent être utilisés directement pour des activités criminelles ou comme monnaie d’échange. Au Mexique, le taux de mortalité des enfants de 0 à 17 ans a ainsi augmenté de 135 % entre 2000 et 2012, et en 2012, 1 612 enfants et adolescents ont été tués pour 1 498 en 2017, dont 1 152 garçons et 345 filles. L’incroyable business de l’immigration clandestine Évoqués régulièrement dans les débats médiatiques politiques opposant « populistes » et « immigrationnistes », les flux d’immigrés clandestins qui arrivent en masse sur la petite île italienne de Lampedusa, notamment grâce aux mafias des passeurs nigérians, libyens et aux ONG humanitaires qui les secourent en mer et les acheminent vers les côtes siciliennes, sont devenus un enjeu d’antagonisme politique et de sécurité nationale. Ces flux convergent d’ailleurs avec ceux, connexes, des réseaux de trafics de drogue, de prostitution, d’armes, et de terrorisme. Le trafic de migrants clandestins s’est fortement industrialisé depuis une dizaine d’années, avec les circuits déjà éprouvés des autres trafics d’êtres humains, car il est extrêmement rentable. On estime que le trafic de migrants a généré, rien que pour l’année 2019, des gains compris entre 5,5 et 7 milliards de dollars 49 . Rappelons tout d’abord que si, au départ, le migrant clandestin (qui fuit plus souvent la pauvreté que les guerres) est consentant pour être introduit clandestinement dans un pays en payant les passeurs, le parcours migratoire se termine souvent de manière tragique, après de nombreux abus, violences, exploitations et chantages, ou pour alimenter des mafias et le travail au noir. Les migrants clandestins doivent payer plusieurs milliers d’euros pour, dans certains cas, être abandonnés en pleine mer, d’où la poursuite du parcours avec les bateaux que les ONG affrètent. C’est ainsi que, chaque jour, en Sicile, à Lampedusa, dans les îles grecques, dans les Balkans, ou encore à Ceuta et Melilla, ou sur les côtes andalouses, débarquent des milliers de clandestins appelés « récupérés », quotidiennement secourus grâce aux efforts assidus des navires de sauvetage (souvent illégaux) exploités par des riches ONG idéologiquement fortement engagées et hostiles par principe aux frontières (Moas, Jugend Rettet, Stichting Bootvluchteling, Médecins sans frontières, Save the Children, Proactiva Open Arms, Sea-Watch, Sea-Eye, bateau Life). Derrière ces « récupérateurs » qui « prêtent » leurs bateaux (extrêmement bien équipés et coûteux), on retrouve notamment la fondation Open Society du milliardaire George Soros, chantre de la mondialisation heureuse et de l’abolition des frontières. Rappelons qu’une simple embarcation de 200 migrants, qui coûte en revanche très peu en essence, peut rapporter aux passeurs 1 million d’euros, avec très peu de risques financiers, puisque les migrants sont livrés à eux-mêmes par les passeurs qui restent postés sur la côte libyenne. Grâce aux ONG qui viennent les secourir, les passeurs ont considérablement diminué leurs coûts sans baisser leurs prix « facturés » aux clandestins qu’ils font exprès de placer dans des embarcations dangereuses... Au total, le coût total réel du voyage pour le clandestin atteint 7 000 euros. Souvent, les migrants doivent par la suite se prostituer pour payer leurs dettes, comme certaines femmes asiatiques dépourvues de titres de séjour ou ces Africaines qui paient le coût de leur passage illégal des milliers d’euros (voir supra « Mafia nigériane »). Les gains (pharaoniques, pour les trafiquants) engrangés par l’immigration illégale sont en augmentation constante. Ils se chiffrent, en France comme en Italie, en milliards d’euros. D’après une étude d’Interpol, la traite des êtres humains entre l’Afrique et l’Europe rapporterait 6 milliards d’euros annuels, soit le chiffre d’affaires trimestriel d’une multinationale comme Starbucks... Les cartels de passeurs s’enrichissent non seulement en affrétant des embarcations rudimentaires, mais aussi en fournissant de faux documents, en conduisant les migrants illégaux de l’Afrique noire vers la Libye. Outre la traversée en mer, qui coûte 2 000 à 3 500 euros en moyenne par personne, les migrants déboursent autant pour les parcours dans les déserts et « services annexes » (nourriture, gilet de sauvetage, réserves de billets pour acheter des puces téléphoniques et survivre une fois arrivés en Europe, infos sur les numéros utiles, jobs au marché noir possibles, etc.). Pour prendre la mesure de l’incroyable source de lucrativité que constituent les trafics de migrants clandestins, il suffit de rappeler l’exemple, parmi d’autres, en Libye, du « gouverneur militaire » de Tripoli, l’ex-chef du Groupe islamique combattant libyen (al-Qaida), Abdelhakim Belhaj, protégé de la Turquie d’Erdoğan, qui, devenu respectable depuis la révolution libyenne de 2011, aurait acquis grâce au trafic de migrants une fortune évaluée à 2 milliards de dollars 50 ... Les passeurs de clandestins, à la pointe du marketing digital et de la mondialisation... Comme la prostitution, qui ne s’exerce pas que dans la rue et les salons, mais de plus en plus sur Internet, les « parcours migratoires » illégaux sont vendus sur le Web. En quelques clics, ces étranges « tour- opérateurs »/trafiquants d’êtres humains donnent des prix, des conseils et proposent des « packages » en ligne et même de falsifier les passeports et cartes d’identité. D’après une étude de l’université de Trente consacrée à la capacité des trafiquants à utiliser le Web, de nombreux groupes Facebook et Instagram annoncent des voyages illégaux en arabe et donnent des modes d’emploi 51 . Des chercheurs arabophones qui se sont fait passer pour des migrants ont découvert une véritable boîte de Pandore : tout comme dans une boutique online, les trafiquants proposent des « remises » pour femmes et personnes âgées, des « forfaits famille », un « service complet » comprenant transferts navals et aériens et faux documents, et même un service après-vente... Ils offrent des informations sur les points de départ, les titres de séjour, les aides aux migrants et autres « téléphones utiles ». De nombreux profils identifiés sont faciles à trouver en cliquant sur les moteurs de recherche en arabe : « voyage pour l’Europe », « aller vers l’Italie » ou « espace Schengen ». Les applications comme Viber, Skype, WhatsApp ou Telegram sont utilisées pour échanger avec des « agents de voyages » férus de cryptographies. Ces conseils « vendus » par les trafiquants sont souvent fournis par les ONG promigrants précitées qui publient les astuces pour se rendre illégalement en Europe et y contourner les lois. L’expansion d’Internet dans les pays africains est une aubaine pour les mafias de passeurs de migrants qui connaissent parfaitement les lois des pays d’accueil et expliquent comment déjouer les contrôles. Un groupe lance par exemple ce message : « Pour tous les Syriens, une annonce du Soudan indique qu’aucun visa n’est nécessaire. Quiconque souhaite des informations peut me contacter via Viber. » La Libye n’est pas le seul lieu de passage vers l’Europe : les voyages en provenance de Turquie sont aussi en pleine expansion : « Pour les frères qui veulent voyager d’Istanbul sur des navires de 80 m, explique une autre annonce Facebook, le départ est lundi... » Si un voyage depuis la Libye peut coûter 2 000 à 4 000 euros, ces « agences » vendent 2 500 euros de plus une traversée d’Istanbul à Athènes sur des yachts touristiques que les polices ne contrôlent pas. Un itinéraire de la Turquie vers la Grèce plus précaire, avec une marche de deux heures, coûte 1 700 euros. Les voyages rapides et confortables en avion sont vendus 3 500 euros d’Athènes à l’Allemagne avec faux documents. Pour les navires commerciaux de la Turquie vers l’Italie, le prix varie entre 4 000 et 5 500 euros. Des « publicités » incitent aussi des femmes à se prostituer en ligne ou sur le Web pour financer les voyages. Pour les forces de l’ordre, ces activités cryptées, en arabe ou sur le Darknet, sont extrêmement difficiles à déceler et empêcher. Les problèmes liés aux trafics de migrants sont multiples : la vie et la situation des migrants, vrais ou faux demandeurs d’asile, leur misère, les risques de décès en mer ou d’exploitation, le danger de voir se faufiler parmi eux des délinquants, trafiquants ou terroristes, et le coût, pour les États du sud de l’Europe, de la lutte contre les migrations illégales puis du traitement des personnes que les gouvernements sont sommés d’accueillir, nourrir et loger une fois arrivés dans les ports des pays « sûrs ». D’après le projet de plan budgétaire 52 du ministère de l’Économie et des Finances italien, la dépense totale pour la gestion des migrants a été de 2,6 milliards pour 2015, 3,3 milliards pour 2016, 3,8 milliards pour 2017, et plus de 4,6 milliards en 2018 53 (voir supra). Une majorité de migrants illégaux vient d’Afrique subsaharienne et du Maghreb, il s’agit en fait plus de réfugiés économiques que des demandeurs d’asile fuyant des guerres. Certes, beaucoup de migrants fuient notamment la Syrie en guerre ou l’Afghanistan, notamment via la Turquie. Celle-ci a d’ailleurs accueilli sur son territoire 3,6 millions de Syriens. En février 2019, dans un contexte de tensions franco-turques et turco-européennes en Méditerranée orientale, le Président turc, Recep Tayyip Erdoğan, déclarait ainsi, fort de cette carte migratoire : « Ô Union européenne [...] si vous essayez de présenter notre opération comme une invasion, nous ouvrirons les portes et vous enverrons 3,6 millions de migrants 54 . » Rappelons qu’en mars 2016, la chancelière allemande Angela Merkel avait négocié au nom de l’UE un accord avec la Turquie visant à dissuader les migrants de traverser la mer Égée, par lequel Erdoğan acceptait de multiplier les patrouilles en mer et d’accueillir les demandeurs d’asile arrivés en Grèce. En échange, pour chaque migrant syrien renvoyé en Turquie au départ des îles grecques, l’Union s’engageait à réinstaller en Europe un Syrien vivant dans un camp de réfugiés turc, et Bruxelles verserait une aide de 6 milliards d’euros à destination des 2,7 millions de Syriens réfugiés en Turquie. Elle promettait par ailleurs de rouvrir les négociations sur l’adhésion de la Turquie à l’UE et de faciliter la circulation en Europe des ressortissants turcs sans visa. Or l’accord a été remis en question plusieurs fois par Ankara qui menace à nouveau de laisser passer massivement les migrants vers les côtes grecques si l’Union européenne n’accélère pas la libéralisation des visas, et si les milliards promis ou restant « dus » ne sont pas versés. De son côté, le Parlement européen s’y refuse tant que la Turquie n’assouplit pas sa loi antiterroriste, qui elle-même bloque le dossier de la libéralisation des visas vers l’Union. « Si nous ne prévoyons pas la mesure de l’arrestation immédiate de tout immigré illégal qui arrive candestinement en Italie, nous n’arrêterons jamais le phénomène », a déclaré en décembre 2018 le général Vincenzo Santo, ancien chef d’état-major de l’Otan en Afghanistan. Cette mesure choc de l’officier italien est jugée inacceptable par les lobbys promigrants, et elle est présentée comme contraire aux « traités internationaux » ou autres conventions sur les droits de la mer, ce qui est un fait discutable, car en réalité, un État a le droit de contrôler/réduire l’immigration et de sortir de n’importe quel accord international, si celui-ci est détourné pour nuire à la souveraineté inaliénable de l’État qui l’a cofondé. Et les textes onusiens obligeant soi-disant à accueillir et financer tous les migrants clandestins ne sont pas contraignants (voir « Pacte de Marrakech »). Rappelons tout de même que dans des pays démocratiques comme l’Australie ou les États-Unis, l’entrée illégale sur le territoire national est une infraction pénale passible de prison. En Australie, depuis 2013, tout bateau transportant des clandestins est systématiquement réexpédié vers des îles extraterritoriales d’Asie dans le cadre de détentions sans limite de temps pendant la vérification de l’éligibilité au statut de réfugié. Seuls les migrants entrant de façon légale dans des points d’accueil situés hors du pays sont accueillis et bénéficient éventuellement d’aides. « Jusqu’ici, conclut le général Santo, nous n’avons jamais mené d’actions coordonnées garantissant le refoulement des migrants n’ayant pas le statut de réfugié politique ou fuyant la guerre [...] avec une volonté politique, on pourrait mettre fin en quelque mois à l’immigration clandestine et aux arrivées de clandestins en Italie... » Les politiques le savent parfaitement. Mais ils ont peur de déplaire aux lobbys No Borders et à leurs relais médiatiques. Trafic d’organes D’après un rapport du Global Financial Integrity, le marché des organes figurerait parmi les dix premières activités économiques illégales qui rapportent le plus au monde, les bénéfices allant de 600 millions à 1,2 milliard de dollars annuels. Couplée aux prouesses médicales et au développement des nouvelles technologies, la mondialisation marchande a littéralement fait exploser ce marché qui a suscité les convoitises de grands groupes criminels organisés – comme les clans albanais précités – mais aussi de réseaux de corruption au sein d’États peu soucieux de défense des droits de l’homme, comme la Chine, Chypre du Nord, Cuba, etc. Ces dernières décennies, la Chine a ainsi attiré toujours plus de demandeurs fortunés qui, moyennant des dizaines ou des centaines de milliers de dollars, ont pu se payer des greffes rapides. Le gouvernement chinois a longtemps fermé les yeux sur les prélèvements forcés d’organes de prisonniers dans les hôpitaux militaires. Les « marchandises » organiques peuvent par ailleurs être commandées sur Internet, autre effet de la mondialisation. Ce marché a d’autant plus d’avenir qu’il est le fruit d’une forte demande des élites mondialisées d’Occident ou des pays du Golfe, de riches malades en attente de transplantation, se payant les services de mafias capables de faire prélever des organes directement sur des êtres vivants, comme cela se pratique hélas en Europe de l’Est, au Brésil, ou en Chine 55 . Cette marchandisation des organes d’êtres vivants est extrêmement lucrative et alimente à son tour le tourisme de transplantation. En 2008, un réseau mafieux impliqué dans ce trafic juteux et inhumain a été démantelé au Kosovo 56 : cinq médecins kosovars ayant été condamnés pour trafic d’organes à Pristina par le tribunal de l’Eulex 57 . D’une manière générale, les migrants – tant des pays de l’Est que du Sud et d’Orient – sont particulièrement victimes du trafic d’organes et d’êtres humains, comme on le voit en Roumanie, en Bulgarie, dans les Balkans, en Ukraine, mais aussi en Libye, en particulier là où sévit la milice de Sabratha. Le phénomène est également en plein essor en Asie du Sud-Est (Thaïlande, Birmanie, Népal, Indonésie). En Irak, Daesh a également été fortement impliqué dans ce trafic lucratif : ainsi que l’a déploré Mohamed Alhakim, l’ambassadeur d’Irak auprès des Nations unies, nombre de cadavres découverts dans des charniers de l’EI en Syrie et en Irak présentaient des traces de mutilations avec des organes vitaux manquants... Le diplomate a ainsi révélé l’existence d’une fatwa d’un cheikh de l’État islamique déclarant halal (« licite ») le prélèvement d’organes des « infidèles ». Trafic d’espèces sauvages et braconnage Selon Interpol, le trafic d’espèces sauvages et le braconnage, en pleine croissance, brasserait 20 milliards de dollars 58 par an, si l’on ne compte que les espèces animales. En incluant les produits forestiers, ce nombre s’élève à plus de 100 milliards... D’après un rapport d’Interpol consacré à la criminalité forestière, la contrebande illégale de bois représenterait 15 à 30 % de la production mondiale, ce qui engendrerait des revenus compris entre 51 et 152 milliards de « chiffre d’affaires » par an. Globalement, on estime que la criminalité environnementale en général représenterait entre 70 et 213 milliards de dollars par an. Celle-ci concerne l’exploitation forestière et minière illégales, le braconnage et les trafics d’animaux sauvages, la pêche et, ou encore le déversement de déchets toxiques, qui représentent une menace croissante pour l’environnement. Pour le braconnage, les exemples les plus connus sont l’ivoire de l’éléphant en Afrique ou en Asie du Sud, ou la corne de rhinocéros, qui fait l’objet d’une protection attentive. Ce trafic est très prisé par les organisations criminelles car il procure des profits élevés et un risque réduit. La lutte contre le trafic d’espèces sauvages n’a jamais été une priorité, les États privilégiant celle contre le trafic de drogue ou d’armes. La corne de rhinocéros est recherchée par des pays comme le Viêtnam pour être réduite en poudre et utilisée ensuite comme produit pharmaceutique. Il faut rappeler qu’elle se vend plus cher que la cocaïne ou l’or : entre 40 000 et 50 000 euros le kilogramme, voire parfois jusqu’à 70 000. Pour de tels revenus, les braconniers sont prêts à tout pour abattre ces animaux et pas seulement en Afrique mais aussi en France. On se souvient notamment du rhinocéros du zoo de Thoiry qui avait été abattu par balle le 7 mars 2017 avant que les ravisseurs ne récupèrent la corne à coups de tronçonneuse. Quant à l’ivoire, selon Interpol, il représenterait pour l’Asie un marché de 165 à 188 millions de dollars. En Afrique, certaines milices abattent les animaux afin de financer leurs achats d’armes et la corruption. Les bêtes peuvent également être vendues vivantes pour des zoos ou comme animaux de compagnie. Les prix de vente des grands singes varient : un braconnier peut échanger un chimpanzé contre 50 à 100 dollars, alors que l’intermédiaire peut le revendre avec une marge allant jusqu’à 400 %. Le prix de l’orang-outan peut atteindre 1 000 dollars 59 , et les tigres entre 4 000 et 6 000 dollars, voire parfois 20 000. Un autre trafic, également très lucratif, doit beaucoup à la mondialisation : celui de matières premières, comme le bois, l’or, les diamants ou le pétrole. Ce type de trafic est particulièrement développé en Afrique, dans le contexte des économies de guerres liées à des conflits intertribaux opposant des milices qui financent leurs activités par les pillages et trafics de matières premières. Au Liberia, par exemple, pendant la guerre civile, l’ancien président Charles Taylor a utilisé le bois comme principale source de financement. Selon les estimations, l’industrie forestière aurait rapporté de 80 à 100 millions de dollars par an pendant la majeure partie de cette période. Ces fonds ont contribué à élargir l’ampleur du conflit et à le prolonger, entraînant la mort de plus de 250 000 personnes et la destruction économique du pays. On peut également citer les exemples de la République démocratique du Congo, de l’Armée de résistance du Seigneur (LRA, originaire d’Ouganda), mais aussi des milices Janjawid au Soudan et des Forces démocratiques de libération du Rwanda (FDLR), directement impliquées dans le trafic d’ivoire, de bois, de charbon de bois, d’or et de minerais. En ce qui concerne le vol de pétrole, il est très prisé, notamment au Nigeria. La Nigerian National Petroleum Corporation (NNPC) a ainsi révélé en 2017 que le pays perdait 40 millions de dollars par jour en raison du vol de pétrole. Les organisations terroristes, notamment Daesh, Boko Haram, al-Qaida, Aqmi, shebabs, etc., sont également souvent impliquées dans ce type de criminalité environnementale 60 . Contrefaçon et mondialisation marchande Les filières criminelles mondialisées se professionnalisent dans tous les domaines, et celui de la contrefaçon, que la globalisation, les migrations et le tourisme ont boostée, est particulièrement prisé. Les industriels évaluent le chiffre d’affaires annuel mondial de cette activité entre 500 (OCDE) et 1 000 milliards de dollars, soit 3 % du commerce mondial. Les principaux produits contrefaits sont les équipements électroniques (121 milliards de dollars), suivis de la bijouterie (41 milliards), des dispositifs médicaux (29 milliards). Les industries pharmaceutiques chiffrent à 60 milliards les pertes rien que pour les laboratoires européens quand le secteur textile déplore une « évaporation » de 28 milliards. La situation est très préoccupante non seulement d’un point de vue économique mais aussi sécuritaire et sanitaire. Ainsi, « en 2012, dans plus de la moitié des 23 réacteurs nucléaires sud-coréens des composants contrefaits avaient été acquis à partir de certificats de conformité falsifiés 61 ». De plus, 20 % du marché pharmaceutique serait aujourd’hui composé de faux médicaments. Ils rapporteraient aux organisations criminelles jusqu’à 500 fois leur mise initiale, un trafic plus rentable que la drogue ! Selon l’IRACM (Institut de recherche anticontrefaçon de médicaments), pour 1 000 dollars investis, le gain serait de 200 000 à 450 000 dollars (contre 20 000 pour la drogue 62 ). Ce genre de trafic est d’autant plus inquiétant dans le contexte de pandémie qui sévit depuis novembre 2019 et qui conduit à une explosion de la demande de vaccins. Il est donc inévitable, vu l’enjeu financier considérable, que de faux médicaments anti-Covid, de faux vaccins et même de faux tests négatifs sont apparus, principalement dans les pays en développement. Trafics d’armes Selon le Small Arms Survey 63 , un milliard d’armes légères circulent dans le monde aujourd’hui, mais seules 16 % d’entre elles sont détenues par les forces de l’ordre et l’armée. Sachant que la valeur des transferts légaux d’armes légères est estimée à 5,7 milliards de dollars par an, celle des armes illicites serait comprise entre 57 et 456 millions de dollars. On estime par ailleurs qu’au moins 75 millions de fusils d’assaut de type kalachnikov ont été produits depuis sa création. Le trafic d’armes sert en fait un double objectif : tout d’abord, une fin purement économique, et ensuite répondre à la demande d’armes indispensables au trafic de drogue et au contrôle des territoires par des organisations criminelles. En Afrique subsaharienne et de l’Ouest également, le trafic d’armes se développe fortement, rendant ces régions particulièrement vulnérables. Entre novembre 2018 et mars 2019, on a enregistré 150 000 morts violentes dont 40 000 au moyen d’une arme à feu. Au Brésil, les guerres des gangs et assassinats par balles coûtent chaque année la vie à près de 60 000 personnes. Les armes issues du trafic illégal proviennent souvent des stocks nationaux détournés à la suite de vols ou de corruption. On trouve aussi celles fabriquées artisanalement qui n’ont donc jamais été enregistrées et autorisées, ainsi que celles provenant des guerres (notamment des Balkans) qui alimentent aujourd’hui le marché européen, et celui des banlieues françaises en particulier. L’arrivée sur le marché des armes 3D... La 5G sera un casse-tête sécuritaire Autre face noire de la mondialisation et des NTIC, les armes 3D sont maintenant parfaitement accessibles et utilisables par les acteurs criminels et terroristes. Tout a commencé en 2012, lorsque Cody Wilson, patron de la firme Defense Distributed, qui proposait des armes grâce à la plate-forme en ligne Defcad, révéla son projet de conception d’armes à feu afin que « chacun puisse avoir une arme à la maison »... Wilson qualifiait son action de « Netflix des armes 64 » et la concevait comme une sorte de lutte contre la censure gouvernementale. Le premier fichier pour obtenir les modèles d’armes a été disponible en 2013 et le succès a été immédiat : le fichier a été téléchargé plus de 100 000 fois en seulement deux jours avant que le gouvernement américain ne le fasse supprimer. Les armes à feu imprimées en 3D – ou « pistolet fantôme » – ne possèdent pas de numéro de série commercial ni de marque, et elles sont donc totalement anonymes, ce qui est un véritable casse-tête pour les polices. Le pistolet 3D le plus connu est le Liberator. L’imprimante 3D peut également permettre de fabriquer des armes en métal (même si elles doivent être assemblées à la main avec un coût bien plus élevé). Aujourd’hui, le risque réside surtout dans l’apparition de réseaux de partage de modèles d’armes basés sur la blockchain pour échanger en toute discrétion. Ainsi, plus de 100 personnes aux États-Unis seraient déjà capables de développer des technologies d’impression 3D d’armes à feu. Et des milliers participeraient dans le monde au réseau de diffusion. Ainsi, « fabriquer un fusil à pompe est 100 fois plus simple, 100 fois plus rapide et près de 100 fois moins cher que d’imprimer un pistolet. Pour 8 dollars, on peut faire un tour à Home Dépot et fabriquer un fusil à pompe 65 ». En France, récemment, des journalistes ont testé s’il était possible de se procurer ce genre d’armes, et ils ont bien réussi à télécharger le modèle gratuitement sur Internet, à imprimer les composants de l’arme chez un fabricant, à la monter, puis à tirer avec, et tout cela pour 200 euros seulement. La situation actuelle ne permet certes pas si facilement de produire des armes de qualité chez soi, car il faut déjà trouver une imprimante 3D, et ces arseneaux peuvent exploser dans les mains du tireur apprenti armurier. Mais grâce aux progrès de la technologie, à la qualité des matériaux pouvant être utilisés, mais aussi à la vitesse de production et à la simplicité de la conception, ces armes vont constituer un danger croissant dès que la technologie permettra à des organisations terroristes ou criminelles de les fabriquer à grande échelle. Cybercriminalité et Darknet D’après Éric Denécé, directeur et fondateur du Centre français de recherche sur le renseignement, ancien analyste au secrétariat général de la Défense nationale, « parmi les six menaces majeures auxquelles les pays occidentaux sont confrontés » arrivent, juste derrière le terrorisme et la subversion islamiste, « les cybermenaces (cybercriminalité, cyberespionnage, hacktivisme) et l’espionnage politique et technologique, en plein développement, et qui proviennent à la fois d’acteurs étatiques et non étatiques 66 ». Dans un monde toujours plus connecté et dépendant des réseaux informatiques, en effet, de plus en plus d’États sont confrontés à la cybercriminalité, qui coûte aux consommateurs des milliards de dollars par an. Un rapport 67 de l’entreprise McAfee (éditeur de logiciels et d’antivirus) a estimé le coût de la cybercriminalité en 2020 à 1 000 milliards de dollars (soit 50 % de plus qu’en 2018 68 ), dont 145 milliards dépensés pour la lutte contre les attaques. « Devenue la première fraude auprès des entreprises, la cybercriminalité ne cesse de repousser les limites de l’innovation technologique. Fruit de criminels ou d’États, les cyberattaques ont littéralement explosé en France. La valeur économique pillée en 2016 est estimée à plus de 600 milliards de dollars dans le monde 69 », écrit Éric Vernier. La cybercriminalité menace les réseaux informatiques sensibles des entreprises et des gouvernements, les systèmes financiers, les banques, les marchés boursiers. Par sa maîtrise croissante, les organisations terroristes et criminelles rendent de plus en plus vulnérable le système financier international, visant les services de valeur et de cartes, et, plus récemment, la monnaie électronique et de crédit dont dépend l’économie mondiale. Selon les services secrets américains, les crimes financiers facilités par des forums criminels en ligne anonymes entraîneraient des milliards de dollars de pertes pour l’infrastructure financière. Les ordinateurs et Internet jouent aujourd’hui un rôle dans la plupart des crimes transnationaux, soit en tant que cibles, soit en tant qu’armes utilisées dans le crime. Les enquêtes pour démanteler les réseaux de cybercriminalité et hackers nécessitent souvent un personnel hautement qualifié car les problèmes sont d’une extrême complexité. Éric Vernier rappelle ainsi qu’« une attaque massive, le 21 octobre 2016, a mis hors service les plus gros sites au monde : Twitter, Netflix, Airbnb, Spotify, Sony, Amazon... En 2015, des hackers russes ont détourné un milliard de dollars en passant par une centaine de banques par petits virements continus pendant plusieurs mois ». Ainsi, des réseaux sociaux apparemment anodins, comme WhatsApp et Snapchat, permettent la vente de drogues – douces ou dures. Éphémères ou chiffrées, ces applications facilitent le trafic et compliquent le travail des enquêteurs pour démanteler ces réseaux. Le Darknet, dit « réseau noir » ou « superposé », est une collection de pages non indexées, c’est-à-dire introuvables par les moteurs de recherche classiques, et donc inaccessibles avec un navigateur web normal. On y accède via des logiciels particuliers, comme Tor. Utilisé par des journalistes ou des opposants politiques, le Darknet n’est pas interdit en soi. C’est le détournement de son usage à des fins criminelles qui est répréhensible. Sur le Darknet, on peut trouver en vente des comptes PayPal, des cartes de crédit, des comptes en banques, toute sorte d’armes en pièces détachées, de la drogue, des réseaux de trafics d’esclaves, de prostitution infantile, de pédopornographie, ou même des réseaux de trafics d’organes ou de plasmas de bébés... Par exemple, mi-2017, les services de détection et de répression ont démantelé AlphaBay, l’un des plus gros marchés mondiaux de la drogue opérant sur le Darknet. Ils ont également infiltré un autre marché important, la plate-forme Hansa, et l’ont laissé poursuivre ses activités afin de recueillir des données avant de procéder à sa fermeture. Plus récemment, en avril 2019, de vastes opérations d’infiltration ont permis de démanteler Wall Street Market, alors le deuxième plus grand marché du Darknet au monde après Dream Market. Quant aux hackers ou pirates privés ou liés à des services de renseignements étrangers, notamment chinois, vénézuéliens, nord-coréens, iraniens et russes, ils utilisent les réseaux sociaux pour le scamming (arnaques, fraudes en tout genre), le phishing (le vol de données personnelles allant jusqu’à l’usurpation d’identité), et surtout le spear phishing (visant une personne en particulier, sur les réseaux sociaux). Cette criminalité peut naître dans n’importe quel pays, avec la moindre connexion et très peu de matériel. Les réseaux organisés les plus virulents sont situés en Afrique de l’Ouest (Nigéria), en Roumanie (dans la région de Constanța), en Russie et en Chine. Le réseau le plus utilisé est sans surprise Facebook : le contact y est facile, beaucoup d’informations sont disponibles, et il est aisé d’y créer un faux profil suffisamment fourni pour se fondre dans la foule et se faire passer pour une vraie personne. Les criminels profitent de la crise sanitaire ! Avec la crise de la pandémie, les risques liés à aux actions et à l’influence du crime organisé ainsi qu’au blanchiment d’argent ont fortement augmenté, comme l’exprime Éric Vernier : « Au cœur d’une crise, le phénomène s’amplifie car les urgences inhérentes à la situation entraînent précipitation des acteurs économiques et laxisme des autorités de contrôle 70 . » Les organisations criminelles essaient de profiter des diverses crises afin de s’insérer toujours plus dans le système. Tracfin rappelle ce risque : « En raison du contexte économique dégradé par la crise sanitaire liée à la pandémie de Covid-19, des sociétés présentant des difficultés de trésorerie pourraient être amenées à ouvrir plus facilement leur capital à des investisseurs étrangers afin de garantir la pérennité de leur activité. » Les banques voient dans l’argent de ces organisations des mannes énormes, et donc un moyen de tenir bon. De nombreuses banques ont d’ailleurs probablement déjà été sauvées d’une crise grâce à l’argent de la drogue (2007-2008, notamment). Les criminels peuvent également se positionner comme des banques qui accordent des « crédits » à des entreprises ou à des particuliers. Les sociétés au bord de la faillite sont de ce fait plus enclines à accepter ce genre d’arrangement. À l’instar des organisations terroristes qui utilisent la pauvreté pour rallier les plus indigents à leur cause, les organisations criminelles distribuent régulièrement – et a fortiori en période de crise – des produits de première nécessité, comme cela a été observé au Mexique auprès des narcos ou en Italie avec la Camorra. Elles prêtent parfois même gratuitement de l’argent pour attirer les plus démunis et sembler être plus proches des populations que l’État. Dans une chronique du journal italien La Repubblica, Roberto Saviano alerte sur l’activité mafieuse au cœur de cette épidémie : « La pandémie est le moment idéal pour les mafias : si vous avez faim, vous cherchez du pain, peu importe de quel four il provient et qui le distribue ; si vous avez besoin d’un médicament, vous payez, vous ne vous demandez pas qui vous le vend 71 . » Ainsi, lors de l’opération d’Interpol baptisée « Pangée », menée du 3 au 10 mars 2020 dans plus de 90 pays, 121 personnes ont été arrêtées avec une saisie de 14 millions de masques, produits pharmaceutiques et gels hydroalcooliques contrefaits. « Les collectivités elles-mêmes ont parfois été victimes d’escroqueries avec l’achat de masques de contrefaçon. » « Si le trafic de drogue a plutôt eu tendance à baisser avec la pandémie, d’autres activités se sont intensifiées et de nouvelles sont apparues » : vente de faux médicaments, de masques et de solutions hydroalcooliques conformes ou non ; cybercriminalité ; blanchiment via les mesures de relance économique en faveur des entreprises ; détournement et pénurie par rétention de produits sanitaires et revente au plus offrant ; contrebande de produits sous quotas ; investissements dans les usines de fabrication. 1. Jean de Maillard et Pierre-Xavier Grézaud, Un monde sans loi, Paris, Stock, 2001. 2. Éric Vernier, Technique de blanchiment et moyens de lutte, Paris, Dunod, 2017. 3. Christine Lagarde, « S’attaquer à la corruption avec clarté », FMI, 18 septembre 2017. 4. « Comment l’Insee va intégrer le trafic de drogue dans le calcul du PIB », Le Monde, 2 février 2018. 5. Hayat Gazzane, « Trois chiffres édifiants démontrent que la corruption gangrène le monde », Le Figaro, 9 décembre 2017. 6. Jean-Victor Semeraro, « Prestations sociales : au moins 2,5 millions de bénéficiaires fantômes », Capital, 8 septembre 2020. 7. Voir Rhoda Weeks-Brown, « Halte au blanchiment », Finance & Développement, FMI, décembre 2018. 8. Office des Nations unies contre les drogues et le crime (UNODC) : organe du Secrétariat des Nations unies spécialisé dans la lutte contre le crime et le trafic de drogue. 9. UNODC, World Drug Report 2019, 2019. 10. Europol, EU Drug Markets Report 2019. Téléchargeable sur le site d’Europol : www.emcdda.europa.eu. 11. ONUDC, World Drug Report 2019, op. cit. 12. Jean Rivelois, « Géopolitique mondiale de la criminalité », Diplomatie, Les grands dossiers n o 52, septembre 2019. 13. « À Doha, les négociateurs afghans accusent les talibans de vouloir retarder les pourparlers », L’Orient-Le Jour, 5 janvier 2021. 14. Quatre cent mille personnes vivraient des cultures illicites en Colombie, et un million au Maroc. 15. « Trois tonnes de cocaïne saisies dans un sous-marin au large de l’Espagne », Le Monde, 27 novembre 2019. 16. Anac, La corruzione in Italia (2016-2019). Numeri, luoghi e contropartite del malaffare, rapport, 17 octobre 2019. 17. Alfredo De Girolamo, « Mafia e rifiuti : la DIA indica i 4 problemi chiave », Il Sole 24 Ore, 4 février 2020. 18. Voir « Corruption Perceptions Index », www.transparency.org. 19. Leur professionnalisme dans les braquages a été constaté en avril 2019, lorsque les malfaiteurs ont dérobé un avion à main armée sur le tarmac de l’aéroport de Tirana, s’emparant de plusieurs millions d’euros. 20. « Plusieurs milliards de dollars de chiffre d’affaires », Le Monde, 17 juin 2002. 21. EU Drug Markets Report 2019, op. cit, Europol. 22. Marija Ristic, « The Troubled Trial of Kosovo’s “Drenica Group” », Balkan Transitional Justice, 27 mai 2015. 23. « L’UCK, un groupe militaire et mafieux », Le Monde, 17 juin 2002. 24. Y compris le carburant pour les véhicules et la construction. Voir « Il rapporto di Dick Marty approvato dal Consiglio d’Europa », SWI swissinfo.ch, 25 janvier 2011. 25. Europol, EU Drug Markets Report 2019, op. cit. 26. Communiqué de presse d’Europol : « Plus de 60 personnes arrêtées dans une série d’actions policières contre la mafia albanaise », 5 avril 2019. 27. Anne Vidalie, « Criminalité : les Albanais, une mafia multicarte », L’Express, 2 mars 2017. 28. « Une série d’assassinats entre deux clans touche la Suisse et le Kosovo », RTS, 2 mai 2021. 29. Cartel de Sinaloa, du Golfe, de Tijuana, de Juárez et Nouvelle Génération de Jalisco. 30. Bertrand Monnet, « Les montagnes du Sinaloa, royaume des “narcos” mexicains et siège d’une multinationale du trafic », Le Monde, 3 décembre 2020. 31. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 32. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 33. Carlos Malamud, Historia de América, Alianza Editorial, 2010. 34. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 35. « Les autorités mexicaines publient la vidéo de la brève arrestation du fils d’El Chapo », Le Monde, 31 octobre 2019. 36. Frédéric Saliba, « Au Mexique, un cartel de la drogue déclare la guerre à l’État », Le Monde, 28 juin 2020. 37. Mark Galeotti, « Crimintern: How the Kremlin Uses Russia’s Criminal Networks in Europe », European Council of Foreign Relation, 18 avril 2017. 38. Alain Rodier, « Réseaux mafieux russes défaits en Espagne après sept ans d’enquête », Raids, 4 janvier 2021. 39. Mark Galeotti, The Vory. Russia’s Super Mafia, Yale University Press, 2018. 40. Voir rapport d’Europol sur la drogue et financement du crime, EU Drug Markets Report 2019, op. cit. 41. Joël Chatreau, « Énorme saisie d’amphétamines en Italie : 84 millions de cachets de captagon, la “drogue du Djihad” », Euronews, 1 er juillet 2020. 42. Patricia Khoder, « Le trafic de Captagon, un marché de plusieurs dizaines de milliards de dollars par an », L’Orient-Le Jour, 18 janvier 2016. 43. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 44. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 45. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 46. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 47. Voir Yves Bordenave, « Un réseau de trafic de nourrissons d’origine bulgare démantelé en France », Le Monde, 19 octobre 2005. 48. CNDH, Niñas, niños y adolescentes víctimas del crimen organizado en México, rapport, 2019. 49. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 50. Houda Ibrahim, « Le Libyen Abdelhakim Belhaj : jihadiste, “terroriste” et milliardaire », RFI Afrique, 10 juin 2017. 51. Étude « Surf and Sound », le rôle d’Internet dans les migrations (laboratoire eCrime du Pr Andrea Di Nicola financé par la Commission européenne). 52. Ministero dell’economia e delle finanze, Documento Programmatico di Bilancio 2017, www.mef.gov.it. 53. Alfonso Langastro, Mariasole Lisciandro, « Migranti : ecco le cifre dell’accoglienza in Italia », Il Sole 24 Ore, 10 février 2019. 54. « Erdogan menace l’Europe d’un flux de migrants en réponse aux critiques », La Presse, 10 octobre 2019. 55. Pierre Haski, « Sida : les contaminés de la misère en Chine », Libération, 13 juin 2001. 56. « Kosovo : cinq condamnations pour trafic d’organes », Euronews, 29 avril 2013. Dans la clinique Medicus, à Pristina, plaque tournante du trafic, les donateurs touchaient 15 000 euros par organe et les receveurs déboursaient jusqu’à 100 000 euros. 57. Eulex Kosovo, mission civile de l’UE, vise à promouvoir l’État de droit. Elle s’occupe de justice, de police et de douane. 58. Voir site d’Interpol : www.interpol.int/fr. 59. Interpol, The Environmental Crime Crisis ; voir site d’Interpol : www.interpol.int/fr. 60. Les ressources forestières ont permis de financer les Khmers rouges au Cambodge et ont joué un rôle dans les conflits en Birmanie, en Côte d’Ivoire et en République démocratique du Congo. 61. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 62. IRACM, Contrefaçon de médicaments et organisations criminelles, rapport 25 septembre 2020. 63. Voir site internet du Small Arms Survey, www.smallarmssurvey.org. 64. « États-Unis : Un site Internet remet en ligne des plans d’impression 3D d’armes à feu », 20 Minutes, 2 avril 2020. 65. Gauthier Virol, « Ces réseaux décentralisés qui relancent l’impression 3D d’armes à feu », L’Usine nouvelle, 30 mai 2019. 66. Alexandre Del Valle, « Nouvelles menaces, nouveaux risques, nouveaux défis, la France est-elle préparée ? », entretien avec Éric Denécé, Atlantico, 28 janvier 2020. 67. McAfee, The Hidden Costs of Cybercrime, décembre 2020. 68. Rapport McAfee-Center for Strategic and International Studies, 2020. 69. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 70. Ibid. 71. Roberto Saviano, « La mafia del coronavirus. Dalla droga alla sanità, la pandemia aiuta l’economia criminale », La Repubblica, 23 mars 2020. CHAPITRE X Géopolitique écoénergétique, guerres du gaz et guerres de l’eau... « Celui qui déplace une montagne commence par déplacer des petites pierres. » Confucius La mondialisation, à certains égards positive, puisqu’elle a permis, grâce aux échanges et aux délocalisations, à de nombreuses contrées du monde de connaître un développement industriel et économique, a dévoilé à l’occasion de la crise sanitaire, comme plus de dix ans plus tôt lors de la crise financière de 2008, sa face « malheureuse » : ce processus d’intensification des échanges marchands, humains et financiers a en fin de compte été retourné contre l’Europe et les États-Unis par les anciennes puissances pauvres d’Asie envers lesquelles l’Occident dans son ensemble est durablement et dangereusement dépendant. La désindustrialisation due à cette mondialisation dangereuse est telle que les nations d’Europe, qui ont par ailleurs réduit considérablement la part de leurs budgets nationaux consacrés à la R&D, risquent de connaître à terme le « syndrome argentin », c’est-à-dire un processus d’involution et de déclassement. Par ailleurs, la forte dépendance énergétique des pays de l’UE rend la zone plus sensible aux aléas géopolitiques. Les approvisionnements énergétiques restent en effet très liés aux relations internationales (exemple du conflit russo-ukrainien, voir carte n o 14). Au-delà de l’« anecdote », l’Europe, pour qui le gaz naturel représente le quart de sa consommation brute d’énergie, se retrouve souvent otage des relations complexes entre l’Amérique et la Russie, Washington ne voulant surtout pas que cette dernière renforce son statut de fournisseur principal de l’UE en gaz. La menace du réchauffement climatique et de ses conséquences L’ouverture du commerce mondial intensifiant les échanges et donc les activités de transport, elle incite à consommer toujours plus des produits venant des quatre coins du monde. La mondialisation marchande est de ce fait une des causes objectives du réchauffement climatique avec la démographie incontrôlée et l’industrialisation des pays en développement. L’urgence est donc de permettre les relocalisations et la consommation locale, afin de réduire les temps et les coûts de transport, donc de favoriser les circuits courts, voie privilégiée pour diminuer les émissions de gaz à effet de serre (GES) et les impacts dus aux transports transcontinentaux, notamment. On assiste depuis quelques années à une prise de conscience brutale et planétaire du problème de l’effet de serre, et plus généralement des enjeux liés au réchauffement climatique – devenu depuis changement, urgence ou encore choc climatique. En 2005, le film du sénateur démocrate américain, ex-candidat à la présidence, Al Gore, Une vérité qui dérange, a vulgarisé les travaux de Giec (Groupe d’experts intergouvernemental sur l’évolution du climat 1 ), créé en 1988 et dépendant de l’Organisation météorologique mondiale et du Programme des Nations unies pour l’environnement. Bien qu’ayant été jugé excessif et unilatéral par la justice britannique, le documentaire présente la question du réchauffement global de la Terre et les conséquences du changement climatique qui en découlent, si la quantité d’émissions de CO 2 en forte augmentation depuis le début de l’ère industrielle n’est pas significativement freinée. Le monde découvre alors le rôle de l’excès des gaz à effet de serre dans le réchauffement climatique. Le plus abondant des GES 2 est la vapeur d’eau qui remplit notre atmosphère, mais le plus connu est le dioxyde de carbone ou CO 2 . Ils représentent à eux deux 77 % des émissions d’origine humaine et jouent un rôle fondamental dans la régulation de la température moyenne sur notre planète. Sans eux, la température moyenne de la terre serait de –18 °C au lieu de +14 °C, et les propres conditions rendant possible la vie sur Terre seraient remises en question... Or depuis le XIX e siècle, avec la révolution industrielle et la mondialisation, le recours massif aux énergies fossiles – pour le transport (marchandises, tourisme), l’industrie, l’éclairage, l’habitat – a considérablement accru le volume des GES présents dans l’atmosphère, rompant cet équilibrage naturel. En 2020, ce niveau de concentration a atteint des quantités records. Ce changement, consubstantiel d’une mondialisation, est tenu pour responsable de la hausse des températures, qui ont augmenté de 0,74 °C entre 1906 et 2010, selon les experts du Giec. Ce n’est peut-être qu’un début, car les températures pourraient augmenter de 2 à 6 °C avant la fin du XXI e siècle, si aucune mesure n’est prise, menaçant ainsi d’extinction la biodiversité et la vie sur la Terre. Le sujet semble aujourd’hui médiatiquement et politiquement clair et prouvé... Le débat scientifique ne fait pourtant pas complètement consensus et trouve ses opposants. Les climatosceptiques en question Les « climatosceptiques » remettent en cause les fondements scientifiques non pas tant du réchauffement climatique, qui est une évidence en tant que tel, mais plutôt la causalité entre émissions de CO 2 , changement climatique et responsabilité humaine dans ce phénomène. Ils jugent qu’il y a un manque de preuves scientifiques établissant les liens de cause à effet, et arguent notamment du fait que la planète a toujours connu des phases de réchauffement et des accélérations, comme celles constatées ces dernières années. L’administration Bush – proche de l’industrie pétrolière –, qui gagna les élections face au démocrate Al Gore, n’hésita pas à mobiliser ainsi Fred Singer, un physicien reconnu qui parcourait les plateaux de télévision en expliquant qu’« aucune preuve ne permet d’attribuer le réchauffement climatique à des causes humaines, et même que le monde pourrait bénéficier de quelques degrés de plus ». C’est aussi le cas du scientifique incontesté de l’atmosphère, Richard Lindzen, professeur au MIT, qui ne nie pas le changement climatique mais estime que le rôle du CO 2 est minime. Certains scientifiques, y compris des membres du Giec, notamment Richard Courtney, consultant en science du climat et de l’atmosphère, affirment donc qu’aucune preuve d’un réchauffement climatique causé par l’homme n’aurait été apportée. D’autres font entendre leurs voix au travers d’organisations telles que le NIPCC (Nongovernmental International Panel on Climate Change) qui, par opposition au IPCC – Giec –, défend la thèse d’un réchauffement non anthropique. En 2015, CO 2 Coalition a soutenu le retrait des États-Unis de l’accord de Paris (voir plus loin), et, en septembre 2019, Clintel, une alliance de 500 scientifiques et professionnels en science climatique, a adressé une lettre aux Nations unies (« Déclaration européenne sur le climat ») débutant par ces mots : « Il n’y a pas d’urgence climatique. » Parmi ces derniers figurent plusieurs Prix Nobel et scientifiques célèbres tels que Freeman Dyson 3 . Les éléments de préoccupation s’accumulent Même si les travaux de recherche continuent, pour analyser plus finement la corrélation entre les activités humaines et le changement climatique, une grande majorité de scientifiques affirment tout de même être à 90 % certains de cette responsabilité et soutiennent qu’il faut largement promouvoir la lutte contre le changement climatique. Les analyses de long terme réalisées par les experts du Giec montrent qu’entre 1880 – date du début de l’ère industrielle et donc de la mondialisation moderne – et 2012, la température moyenne globale a augmenté de 1 °C (+0,85 °C). Ce lissage ne reflète pas vraiment l’aggravation du phénomène, car la période 1981-2010 a été la plus chaude depuis mille quatre cents ans. Il ne se passe d’ailleurs pas une semaine sans que des épisodes climatiques extrêmes (inondations, sécheresses, fonte des glaces, incendies, ouragans, records de températures...) ne viennent illustrer ce changement devenu urgence climatique. La seule année 2020 s’est imposée comme une « annus horribilis » tant sur le plan climatique que sanitaire (avec la Covid-19), l’une des trois années les plus chaudes jamais enregistrées avec une température moyenne mondiale, entre janvier et octobre, supérieure d’environ 1,2 °C à celles relevées sur la période de référence 1850-1900. Selon l’ONU, cet état de fait accroît le risque de voir dépassé le niveau de 1,5 °C, prévu d’ici à 2024 par l’accord de Paris. Dès fin 2019 démarraient d’ailleurs de terribles feux de brousse en Australie, poursuivis de nombreuses semaines avec un bilan catastrophique 4 et un impact majeur sur la biodiversité. De la même manière, la Sibérie a déploré plus de 11 millions d’hectares (soit plus de la superficie du Portugal) également partis en fumée depuis début 2020. Le phénomène est doublement inquiétant car la Sibérie (notamment l’Est) connaît un réchauffement deux fois supérieur à celui du reste de la planète (5 °C de plus que les moyennes saisonnières), ce qui favorise la perte rapide de la couverture de glace. Les États-Unis n’ont pas non plus échappé aux flammes, notamment en Californie. Après plus de cent jours sans une goutte de pluie se déclarait à la mi-août 2020 un « giga-incendie » (August Complex) qui allait battre le record des plus grands feux californiens et détruire plus de 1,6 million d’hectares de végétation (soit le double des records historiques équivalent à la superficie de la région Île-de-France). La saison des typhons et des supertyphons a franchi un cran en 2020 : après Bavi (Chine, Corée du Nord) et Maysak (Micronésie), le typhon Haishen (Japon, Corée du Nord), dans le Pacifique nord-ouest, et juste après le passage de Molave aux Philippines, celui de Goni a littéralement balayé l’archipel, avant l’arrivée d’Atsani. Goni a été le plus intense de l’année 2020 et a été le plus violent jamais survenu sur terre, avec des rafales de vent à plus de 300 km/h, des précipitations sur les zones côtières et sur les reliefs atteignant en vingt-quatre heures l’équivalent de deux à trois mois de pluie. Conséquence du changement climatique, selon le Giec, le nombre d’ouragans a doublé en cent ans pour atteindre 85 par an et il devrait continuer à s’accroître. Le réchauffement des océans bat des records, et il entraîne des conséquences sérieuses sur les écosystèmes marins déjà affectés par l’acidification des eaux due au CO 2 , dont une majeure partie provenant des navires de marchandises, outil principal de la mondialisation. Les records de chaleur et les sécheresses se multiplient, l’eau se raréfie, provoquant des situations de stress hydrique par endroits et des inondations ailleurs, ce qui entraîne une baisse des rendements agricoles. La biodiversité, désormais reconnue comme un des enjeux majeurs climato-environnementaux, y est menacée, risquant d’ailleurs de provoquer l’accélération des pandémies. Encore une fois, tout est lié. En effet, des liens de plus en plus évidents apparaissent entre la biodiversité et la santé. Cette approche semblerait d’ailleurs être le meilleur bouclier contre les zoonoses, ces maladies qui passent des animaux aux êtres humains, et dont ferait d’ailleurs partie la Covid-19, d’après les informations disponibles à date. La situation est d’autant plus grave que le changement climatique que l’on vit actuellement a lieu à un rythme accéléré jamais connu dans l’histoire du monde... même si apparemment, à la fin du Pliocène, il y a trois millions d’années, on a déjà eu une concentration en CO 2 dépassant pour la dernière fois les 400 ppm au niveau actuel. Toutefois, l’accumulation de CO 2 s’était réalisée sur plusieurs millions d’années. Dans le cas actuel, en revanche, les émissions de dioxyde de carbone ont augmenté de plus de 40 % dans l’atmosphère en à peine cent cinquante ans. Sans action massive pour décarboner, on pourrait atteindre une concentration équivalente à un taux de 2 000 ppm au milieu du XXIII e siècle, voire avant, ce qui entraînerait un réchauffement de la planète de 3 ou 4 °C, avec des conséquences irréversibles dont, selon les glaciologues, une augmentation du niveau des océans entre 50 cm et 1 m d’ici à la fin du XXI e siècle. L’accord de Paris, enjeux de rivalités de leadership entre nations Dans le cadre de la COP 21 a été signé, après un marathon diplomatique, l’accord de Paris. Cent quatre-vingt- seize pays engageaient (sans contraintes) leurs gouvernements à limiter le réchauffement climatique à moins de 2 °C à travers différentes mesures à mettre en œuvre dans les années à venir afin de réorienter leurs économies vers des modèles bas carbone fondés sur un abandon progressif des énergies fossiles. Ces dernières constituent tout de même encore 70 % du mix énergétique mondial. Pour ce faire, les pays doivent faire cause commune et développer des stratégies de développement à faibles émissions à long terme. Dans la pratique, cela suppose de mettre en œuvre des plans quinquennaux de plus en plus exigeants pour atteindre au plus vite le pic mondial des émissions de GES et, ensuite, parvenir enfin à la neutralité carbone à l’horizon 2050. Ces objectifs – appelés « contributions déterminées nationalement » (Nationally Determined Contributions, NDC) – expliquent les mesures destinées à réduire les niveaux d’émissions de GES et à améliorer leur résilience à une élévation des températures. Lors de la COP 22, à Marrakech, un an plus tard, on disposait d’un document ratifié par 103 États qui représentaient 73 % des GES. L’Australie, fort dépendante du charbon, et figurant parmi les pires émetteurs par habitant de gaz à effet de serre, avait ratifié l’accord quelques jours plus tôt et confirmait l’objectif de réduire ses émissions de 26 à 28 % de leur niveau de 2005 à l’horizon 2030. Rappelons que l’entrée en vigueur de cet accord était conditionnée à la ratification par au moins 55 pays qui totalisent 55 % des émissions mondiales. Ceci était alors déjà le cas, bien que de nombreux pays ne l’eussent pas encore ratifié : Turquie, Russie, Japon, Espagne en pleine crise électorale... ou ceux, comme les États-Unis qui, sous la nouvelle ère Trump, menaçaient déjà de traîner des pieds... L’accord de Paris est entré en vigueur le 4 novembre 2016. Un an plus tard, en novembre 2017 (la Syrie avait également signé et les États-Unis ne s’étaient pas encore retirés), 195 pays sur les 197 reconnus par l’ONU s’étaient engagés. En fait, les objectifs sont volontaires et la seule obligation est que, cinq ans plus tard, l’objectif doit être plus grand, mais sans aucune précision. De plus, les États en développement n’ont aucune obligation sérieuse ou dissuasive... Transition énergétique et croissance économique : l’ultrapolarisation du débat aux États-Unis L’exemple américain illustre le problème de la polarisation idéologique en matière de politique énergétique et de décisions impliquant le respect de l’environnement, encore trop souvent vu comme l’apanage de la gauche, même si les positions évoluent. Aux États-Unis, la question est d’autant plus sensible que le pays paie cher son indépendance énergétique gagnée à grand renfort de pétrole et de gaz de schiste. Ainsi, il semble difficile de trouver des positions plus tranchées en matière d’ambitions et de politiques climatiques que celles tenues par Donald Trump et Joe Biden. Obama avait signé l’accord de Paris. Trump en est sorti et Biden, qui avait promis de réintégrer l’accord 5 , l’a fait le premier jour de son investiture. Les propos de campagne de deux candidats sur la question du changement climatique ont permis de mieux cerner les motivations et analyses respectives. D’après Trump, pour qui les principaux responsables de la pollution sont la Chine, l’Inde et la Russie, il n’est pas concevable de sacrifier des industries et des emplois sur l’autel du changement climatique et de transférer de l’argent des contribuables américains à la Chine à ce titre. Un propos sans surprise de la part d’un Président qui avait pris la décision de sortir des accords de Paris jugés « horribles, coûteux, unilatéraux », tout en se targuant que son pays avait gagné la « guerre du beau charbon propre ». On observera en passant que ce sont la Chine et le Japon, et non pas les États- Unis, qui sont les plus grands vendeurs de centrales électriques au charbon modernes et efficaces. À l’inverse, Joe Biden, dans la droite ligne de la pensée démocrate, fort de l’appui de Barack Obama et d’Al Gore, particulièrement engagés en matière de lutte contre le changement climatique, reconnaissait dans le réchauffement climatique le « danger le plus essentiel pour l’humanité » et voyait comme un « impératif moral de s’y attaquer » dans les plus brefs délais. Pour Trump, on pouvait souhaiter avoir « l’eau la plus buvable, l’air le plus pur, et le moins d’émissions de carbone » tout en dénonçant « les éoliennes, très intermittentes, qui tuent les oiseaux, et le solaire trop cher et pas assez puissant pour faire tourner les belles industries américaines ». Biden, quant à lui, défendait les « emplois bien payés dans le solaire et l’éolien » (25 à 30 dollars de l’heure selon lui) et accusait Trump d’avoir éliminé toute la réglementation en matière d’environnement. Il affirmait vouloir équiper le réseau routier américain avec « 50 000 bornes électriques », pour ne pas perdre le leadership de l’industrie automobile en pleine mutation au profit de la Chine, avec nombre d’autres propositions et objectifs 6 . Enfin, Trump considérait avoir rendu le pays indépendant des importations pétrolières, évitant ainsi de nombreuses guerres dans le monde souvent liées à la géopolitique du pétrole. Toutefois, la position proclimat de Biden reste néanmoins ambiguë – comme celle de Barack Obama – sur la fracturation hydraulique qui permet la production de pétrole et de gaz de schiste. Rappelons qu’Obama, malgré sa volonté de verdir l’économie, a largement contribué à développer cette pratique. De même, Biden, qui promet des investissements massifs vers la transition énergétique, déclare en même temps devoir gérer une « transition pétrolière » qui doit s’inscrire dans la durée nécessaire pour permettre d’investir massivement dans les énergies renouvelables. Autre paradoxe, on rappellera que dans la pratique, le retrait de l’accord de Paris voulu par Donald Trump était prévu pour ne prendre effet, coïncidence des calendriers... qu’au lendemain du scrutin, c’est-à-dire le 4 novembre 2020, et l’ex-Président climatosceptique n’a jamais totalement gelé les discussions techniques qui ont continué en coulisse : une délégation américaine était notamment présente à Madrid lors de la COP 25, pour préparer, le cas échéant, un retour éventuel. Joe Biden devra ainsi flécher les aides massives décidées pour défendre l’économie américaine face à la Covid vers cette nouvelle économie dite « régénérative », en réconciliant l’économie, l’écologie et l’investissement. Par ailleurs, les positions anticlimatiques de Donald Trump ont, paradoxalement, contribué à mobiliser les acteurs américains non fédéraux qui se positionnent aux avant-postes de la lutte contre le réchauffement climatique : les tribunaux ont été interpellés par vingt-deux États et sept grandes villes qui ont décidé de porter plainte contre la politique environnementale du gouvernement Trump. Ainsi des États, des villes et donc bien sûr des citoyens, mais aussi des entreprises, pesant pour plus de la moitié de l’économie et de la population, se sont engagés à tenir les objectifs de l’accord de Paris malgré le manque de soutien politique fédéral. En ce qui concerne les entreprises, en Californie ou à New York, le poids des multinationales aidant, Tesla, totalement acquise à la cause du monde postcarbone, devenue un énorme succès boursier, avec près de 400 milliards de dollars de capitalisation (soit 2 fois plus que Toyota et plus de 10 fois celle de Ford), en est un exemple emblématique. À l’inverse, la sortie récente d’ExxonMobil, l’empereur du pétrole, de l’indice du Dow Jones (après plusieurs décennies) est le signe d’un réveil de certains investisseurs sur le risque climatique qui est aussi un risque financier pour les entreprises des secteurs carbonés et les institutions financières. Le président Biden devra inciter les régulateurs financiers pour que ce risque soit intégré dans les réglementations et donc pris en compte dans les stratégies d’investissement des institutions financières. Vers une « civilisation écologique », le nouveau leitmotiv de Xi Jinping Quant à la Chine, rivale économique des États-Unis, première exportatrice mondiale et grosse consommatrice d’énergie, qui détient désormais le triste record de pays le plus émetteur au monde avec 20 % des émissions mondiales, elle annonce construire plus de 250 GW de nouvelles centrales au charbon alors que toutes celles de l’UE s’élèvent à 150 GW. Pékin a paradoxalement apporté son soutien, dès le début, à l’accord de Paris. Il faut dire qu’après la COP 21, l’occasion était trop belle pour les Chinois de reprendre le flambeau de la lutte contre le changement climatique abandonné par Donald Trump... Scrutée par la communauté internationale, Pékin avait décidé de déployer un plan d’action à la hauteur de ses nouvelles ambitions, affichées haut et fort, de rendre la « Chine plus belle » et d’accélérer son projet d’« éco-civilisation 7 » (EC). Ce projet a été réaffirmé le 18 octobre 2020 lors du XIX e congrès du Parti communiste chinois : Xi Jinping a notamment annoncé de « promouvoir l’édification d’une civilisation écologique à l’échelle mondiale » en continuant à déployer de grands efforts (développement massif des énergies vertes, diminution des consommations, investissements...), et il a de plus affirmé, à la surprise générale, à l’occasion d’un discours prononcé à l’Assemblée générale de l’ONU, avoir commencé « à faire baisser les émissions de CO 2 avant 2030, et d’atteindre la neutralité carbone d’ici 2060 ». De ce fait, la Chine s’impose aujourd’hui comme moteur et leader de l’écologie et des énergies renouvelables. Cette évolution n’est qu’une des illustrations d’une ambition politique chinoise beaucoup plus large qui vise à se lancer à la conquête de marchés internationaux avec des gigantesques projets de développement en perspective, avec, à la clé, le risque d’un autre grand déclassement des démocraties occidentales, ainsi « doublées » sur leur propre créneau moralisateur climatique et écologique tant à la mode, mais qu’elles sont incapables d’appliquer concrètement de façon rapide et à grande échelle comme le système autoritaire chinois le permet... Pour Xi Jinping, l’idée d’éco-civilisation s’appuie sur l’innovation technologique et la croissance qui l’accompagne. À l’opposé de celle des écolos rouges-verts occidentaux, cette stratégie n’est pas conçue par Pékin, dans le cadre d’un mondialisme utopique et antifrontiériste justifiant la fin des Nations, mais au contraire comme un autre instrument de puissance nationale et une « synthèse à la chinoise », c’est-à-dire à marche forcée pour édifier la future hyperpuissance phare de la « belle Chine » et de son idéologie confucéo-maoïste capitaliste. Lors du dernier Eco Forum Global Annual Conference de Guiyang, organisé en 2018, le sujet de la « nouvelle ère de l’éco-civilisation » a ainsi lancé la campagne chinoise mondiale en faveur d’un « développement vert avec une haute priorité pour l’Écologie ». Cette conférence annuelle, qui fêtait sa 10 e édition, avait lieu à Guiyang, métropole-vitrine du modèle qui concilie écologie, innovation et croissance. Le projet chinois de « croissance verte », aux antipodes de la décroissance des écolos européens : un autre grand déclassement en cours... De fait, Pékin affiche des résultats à faire pâlir d’envie de nombreux pays en matière de développement des énergies renouvelables, même si le pays reste très dépendant du charbon. La Chine, vu sa taille gigantesque, s’illustre par de véritables records en matière d’investissements verts porteurs de croissance économique durable : elle est désormais la première puissance mondiale en matière de production d’énergie renouvelable, et ce n’est pas fini ! Elle a doublé ses capacités en matière de solaire photovoltaïque entre 2015 et 2020, et elle s’est distinguée comme le pays ayant installé deux fois plus de capacités de production que la plupart des pays réunis sur la seule année 2016. Son parc solaire étant devenu cinq fois plus important que celui des États-Unis. En ce qui concerne l’éolien, elle a déjà déclassé la totalité de la capacité de l’Europe dans ce secteur. En matière de mobilité propre, Pékin est en pointe, avec des décisions claires, dans la production de véhicules thermiques. Lors du salon de l’automobile de Pékin d’avril 2020, les experts prévisionnistes ont même émis la crainte que la Chine devienne bientôt le leader absolu des véhicules électriques, une concurrence terrible pour les constructeurs européens moins compétitifs qui risquent là aussi le déclassement industriel. Il faut dire que le pays a tout pour réussir ce virage et développer la totalité de la filière : un gigantesque marché intérieur de près de 1,4 milliard d’habitants, des métaux rares (voir infra) indispensables au fonctionnement de ces nouveaux moteurs, des capacités industrielles dont celles nécessaires à la fabrication de batteries électriques, et un vivier de mains-d’œuvre et de compétences impressionnants. Bref, les Chinois semblent avoir compris qu’ils pourraient parfaitement revendiquer l’industrie automobile du futur. Le président Xi Jinping a d’ailleurs imposé à tous les constructeurs de réaliser, dès 2019, 10 % de leurs ventes avec des voitures hybrides ou électriques tout en exigeant des quotas plus restrictifs que partout ailleurs dans le monde, pour les véhicules trop énergétivores. Ceci est une véritable leçon en matière de capacité de faire d’une pierre trois coups : un énorme marché à la clé pour les entreprises nationales, une solution concrète pour réduire la pollution et rendre le ciel des villes encombrées plus bleu, et une position de filière industrielle prédominante. Rappelons que la Chine a investi 360 milliards de dollars pour construire le premier réseau de lignes à grande vitesse dans le monde. Avec plus de 22 000 km de lignes, celui-ci permet de desservir la plupart de grandes villes chinoises autour de huit grands axes. Un chiffre supérieur à la somme de tous les réseaux du reste du monde et qui laisse rêveurs bon nombre de pays occidentaux ! Bref, le gouvernement chinois semble bien décidé à promouvoir un environnementalisme politique, avec des moyens de mise en œuvre dépassant de loin le cadre de l’action possible des gouvernements occidentaux. À n’en pas douter, la guerre économique sans merci à laquelle se livrent désormais la superpuissance américaine et la Chine se traduira par une accélération des investissements verts dans une recherche de leadership en matière de neutralité carbone. Joe Biden a quant à lui annoncé être prêt à faire ce qu’il fallait pour atteindre la neutralité carbone du secteur électrique d’ici 2035, un objectif problématique du fait que les énergies fossiles représentent 65 % de la génération de l’électricité. En clair, une très forte accélération, en matière d’investissements, notamment dans le secteur des énergies renouvelables, sous réserve de se désempêtrer d’un secteur pétrolier qui, on l’a vu, pèse encore fortement dans la logique économique américaine. En matière d’infrastructures, on sait que l’Amérique peut aller vite, et si Biden réalise son plan, comme l’affirme le spécialiste Robert Bell, elle pourrait « devenir le leader incontesté dans le domaine des énergies renouvelables, comme elle l’a fait avec le numérique il y a trente ans 8 ». Vers un nouveau paradigme écoénergétique En 2018, la production d’électricité – dite « thermique », c’est-à-dire à partir d’énergies fossiles – qui représentait 19 % de la production mondiale d’énergie provenait pour 64 % des énergies fossiles. Le reste de la production électrique au niveau mondial (estimée globalement entre 20 000 et 25 000 TWh) est assuré par l’énergie nucléaire (10 % du total), et les énergies renouvelables (un quart du total, dont celle hydroélectrique de loin la principale). Avec près de 45 % de la production mondiale, la Chine et les États-Unis représentent les deux principaux pays producteurs d’électricité au monde. La part de l’électricité dans la consommation finale d’énergie a plus que doublé en quarante-quatre ans, depuis 1973 9 . Dans le même intervalle, la consommation finale d’énergie – toutes utilisations confondues – dans le monde s’est accrue de 109 %, pour s’élever, en 2018, à 9 983 millions de tonnes équivalent pétrole (Mtep), dont 19 % sous forme d’électricité. Les conséquences de ces hausses sont bien connues aujourd’hui avec la pollution et le réchauffement climatique, autre revers de la mondialisation marchande. L’objectif de construire un monde neutre en carbone est donc très ambitieux... Aussi, une transformation économique et sociale semble aujourd’hui nécessaire dans les pays occidentaux, déjà en retard par rapport à la Chine, pour faire émerger un nouveau paradigme écoénergétique dans le cadre d’une vision de long terme susceptible à la fois de viser une croissance verte, voire « régénératrice » pour le bien-être des générations futures. Pour contenir ce réchauffement climatique, les solutions sont connues : accroître la part des énergies renouvelables, capture et stockage du CO 2 , réductions des consommations et déchets, modification des habitudes et transports, recours au nucléaire, etc. Cette nouvelle dynamique, poussée par les objectifs de développement durable (ODD) onusiens, sera l’occasion de faire également émerger de nouvelles formes de leadership à la conquête d’un monde capable de se développer sur la base de règles et contraintes novatrices privilégiant les solutions à faible intensité carbone. Elle impose également de mobiliser des financements (initialement chiffrés à 100 milliards de dollars par an) auprès des nations industrialisées en faveur des pays du Sud, plus vulnérables au changement climatique... Dans de nombreux pays, les énergies renouvelables sont désormais clairement reconnues comme compétitives face aux fossiles. Toutefois, des voix s’élèvent pour attirer l’attention sur leur face cachée. La compétitivité est observable aux bornes de la machine qui les produit, mais du fait de leur forte intermittence et de leur très faible taux de charges – elles ne produisent qu’un cinquième du temps –, la facture d’électricité dans tous les pays qui poussent cette production ne cesse de croître. Le système électrique est un vaste réseau complexe et ne l’examiner que par la réduction du coût des installations éoliennes ou solaires conduit à penser erronément que ces énergies sont bon marché. C’est exactement le contraire, raison pour laquelle si on veut les produire, il faut le faire sous la contrainte du législateur. Pour le solaire, le secteur prévoit que le photovoltaïque mondial continuera à se développer de façon exponentielle. Il a déjà dépassé 600 GW de puissance solaire totale installée à ce jour (au-delà des estimations les plus optimistes) contre 178 GW à fin 2014. Et la course aux infrastructures vertes est loin d’être terminée... En 2024, la capacité solaire mondiale pourrait atteindre 1 448 GW. L’effet d’échelle se traduit par une baisse des coûts 10 qui contribuera à améliorer encore davantage la compétitivité de la production de cette énergie. La même observation vaut également pour l’hydrogène produit de façon écologique par la technique de l’électrolyse de l’eau, l’une des grandes solutions de l’avenir, véritable alternative aux hydrocarbures classiques et non conventionnels. C’est ainsi que les Aéroports de Paris (aujourd’hui Groupe ADP) envisagent d’installer des réservoirs d’hydrogène en vue de la réception d’une nouvelle génération d’avions « verts » qui pourraient décoller vers 2030 au plus tôt. D’une manière générale, les constructeurs automobiles se préparent également au changement de motorisation, qu’il s’agisse de l’électrique ou de l’hydrogène, laquelle impliquera pendant de nombreuses années une diminution de la production et des prix de vente beaucoup plus élevés. Depuis la COP 21, les tentatives de résurgence de l’Ancien Monde paraissent peu à peu s’éloigner... De nombreux freins contribuent à rendre le passage de l’Ancien Monde vers le Nouveau Monde extrêmement délicat. Aujourd’hui, les entreprises se doivent de faire du profit tout en veillant aux enjeux environnementaux et sociétaux, et nombre de firmes historiques du secteur de l’énergie éprouvent d’énormes réticences et/ou difficultés à se transformer. En matière de transition énergétique, ce paradoxe se traduit toujours par une prédominance des énergies fossiles (pétrole, gaz, charbon) dont la part se réduit encore trop lentement. Le pétrole, à lui seul, représente 30 % du mix en 2020 (vs 37 % en 1990)... La crise de la Covid a provoqué un double choc de l’offre et de la demande qui s’est traduit par un tel effondrement des prix (30 dollars le baril) que cela remet en question les conditions de survie même du pétrole de schiste américain, rentable au-dessus de 50 dollars le baril. Selon certains, l’urgence de la transition énergétique est d’autant plus nécessaire que les coûts de « ne rien faire » deviendraient aujourd’hui supérieurs aux coûts d’agir. Plus de 200 des plus grandes entreprises cotées du monde prévoient que le changement climatique pourrait leur coûter près de 1 000 milliards de dollars au total dans les cinq prochaines années, un montant pourtant encore largement sous-estimé selon un rapport de l’organisation CDP (Carbon Disclosure Project 11 ). Les assureurs paient des notes de plus en plus salées du fait d’épisodes climatiques extrêmes (inondations à répétition, incendies, tempêtes plus fréquentes et plus violentes, ouragans, vagues de chaleur, canicules...), mais aussi parce que la démographie et la mondialisation poussent des populations urbaines à se concentrer dans des zones à risques météorologiques. Pour l’horizon 2030, les grands objectifs, arrêtés par le Conseil européen dès octobre 2014, envisagent comme priorité la réduction des émissions d’au moins 40 % en 2030 par rapport à 1990. Cet objectif est d’ores et déjà considéré comme une étape de la feuille de route de la Commission européenne qui parie sur une économie sobre en carbone à l’horizon 2050. Elle propose ainsi des scénarios pour atteindre de manière optimale l’objectif que s’est fixé l’UE de réduire de 80 à 95 % ses émissions de gaz à effet de serre d’ici à 2050, par rapport à leur niveau de 1990. La France soutient cette approche, également appelée ZEN 2050 (Zéro émission nette). La crise du coronavirus va probablement relancer et accélérer cette réflexion de fond. Pétrole et gaz de schiste et filières nucléaires, les énergies renouvelables n’ont pas encore gagné la partie... En dépit des nombreux projets ambitieux visant à bâtir une économie entièrement décarbonée, et outre les contradictions et effets pervers, en matière d’émissions de CO 2 , de l’économie ubérisée et des nouvelles technologies consommatrices de terres rares hautement polluantes et émettrices de CO 2 (voir infra), le débat sur les énergies fossiles elles-mêmes est loin d’être définitivement clos, eu égard aux succès de deux énergies non renouvelables : les hydrocarbures de schistes et les filières nucléaires, tant classiques que de nouvelle génération. Commençons par les énergies fossiles et notamment le gaz, bien moins polluant et bien plus prisé que le pétrole. Il convient de rappeler que nos économies industrialisées en sont encore très fortement dépendantes, surtout des différents gaz. Certains annoncent pour bientôt une économie mondiale débarrassée des hydrocarbures, mais il s’agit là d’un vœu pieux, car si la part de consommation mondiale de pétrole diminue et aura vocation à être remplacée en partie par les énergies renouvelables, il n’en va pas de même du gaz, qui sera l’une des énergies du XXI e siècle, aux côtés des renouvelables, du nucléaire et de l’hydrogène. Démarrée il y a une dizaine d’années seulement, donc sous l’ère du pourtant réputé écologique Barack Obama, la révolution du gaz de schiste a complètement changé la donne énergétique américaine et mondiale, faisant du pays une superpuissance pétrolière et gazière et bousculant ainsi les équilibres géopolitiques mondiaux. Depuis les années 2000, les réserves américaines commençaient à s’épuiser. L’arrivée du gaz de schiste à la fin des années 2000 a « réglé » le problème. Les compagnies pétrolières ont alors commencé à creuser plus profondément pour avoir accès aux réserves. Pour l’extraire, le procédé choisi est la fracturation hydraulique, consommatrice de produits chimiques et d’eau. Paradoxalement, l’exploitation de pétrole et de gaz de schiste, contrairement aux hydrocarbures conventionnels, est rapide à réaliser avec des puits moins coûteux que ceux nécessaires pour l’extraction du pétrole conventionnel (avec les fameuses pompes : pump jacks). Chaque gisement contient toutefois une quantité limitée d’hydrocarbures, ce qui nécessite la construction de dizaines de nouvelles installations chaque semaine 12 . Le pétrole de schiste a connu lui aussi une renaissance depuis les années 2000, en même temps que progressait la « conscience climatique »... Totalement marginale en 2007, la production de pétrole de schiste représentait en 2018 plus de la moitié de la production de pétrole aux États-Unis. Ainsi, l’Agence internationale de l’énergie (AIE), pourtant partisane de la décarbonation et des énergies renouvelables, prévoit que la production de pétrole de schiste atteindra 11 millions de barils par jour d’ici à 2035, soit 66 % de la production totale aux États-Unis. Longtemps premiers importateurs mondiaux de pétrole, les États-Unis sont devenus exportateurs nets de brut et de produits pétroliers en 2020 13 . Avec une production qui a atteint près de 12 millions de barils par jour, en 2019, les exportations de pétrole, de gaz et de charbon combinées ont été supérieures aux importations, pour la première fois depuis 1953... et les États-Unis, qui ont ainsi gagné leur indépendance énergétique, ne prévoient pas de redevenir importateurs nets de pétrole avant 2050... Cette croissance prend en compte la relance de l’exploitation de pétrole off-shore, décidée par l’administration Trump. Dans ce domaine, il est vrai que les États-Unis ont été bien moins scrupuleux que l’Union européenne eu égard aux conséquences écologiques délétères des systèmes de fracturation hydraulique propres à la production des gaz et pétroles de schiste. Officiellement très fortement mobilisées par la lutte contre le changement climatique, les industries privées du pays ont été autorisées à investir largement dans des gazoducs pour exporter vers le Mexique, le Canada, l’Europe – comme on vient de le voir – ou l’Asie. Cela ne veut pas dire que les États-Unis n’importent pas. En effet, le pays continue à s’approvisionner en pétrole canadien, saoudien, mexicain, vénézuélien et irakien, à hauteur de 6 millions de barils par jour, pour des raisons essentiellement techniques, liées à la capacité des raffineries américaines réglées pour traiter des bruts plutôt lourds (le pétrole de schiste étant un peu plus léger, ce qui explique qu’on privilégie son exportation). Bien entendu, l’échiquier politico-énergétique mondial a changé en fonction de cette nouvelle donne. Ainsi, le blocus et le régime de sanctions américains contre l’Iran ou la Russie – en réalité pas uniquement motivés par la « morale » mais aussi et surtout par la concurrence énergétique – ont ouvert de nouveaux débouchés au pétrole et au gaz américains, qui se sont ainsi substitués en partie au brut iranien exporté vers l’Europe et l’Asie et qui a vocation à concurrencer le gaz russe... Et selon la Commission européenne, les exportations de gaz naturel liquide américain vers l’Europe ont augmenté de 272 % depuis juillet 2018... Les gazoducs russo-européens, des épines dans le pied pour l’hégémon américain... Le gazoduc South Stream a fait les frais de ce que nous avons baptisé la « néo-guerre froide » États-Unis- Russie (voir carte n o 13). Ce pipeline, long de 3 600 km, destiné à exporter le gaz sibérien en contournant l’Ukraine, devait fournir jusqu’à 63 milliards de mètres cubes par an aux pays européens grâce à deux branches, l’une vers l’Autriche, l’autre vers les Balkans et l’Italie. Lancé en 2007, ce projet, appuyé notamment par l’Italie et d’autres pays d’Europe du Sud et balkanique, a été abandonné, en décembre 2014, en raison des pressions des États-Unis et des pays les plus antirusses de l’UE. Ces derniers souhaitaient voir leur allié ukrainien demeurer dans le jeu gazier et surtout ne pas dépendre directement de Moscou. Ce choix russosceptique allait favoriser en réaction un rapprochement géoénergétique entre Russes et Turcs : ces derniers sont traditionnellement impliqués dans la réduction de la dépendance européenne vis-à-vis de la Russie, mais ils ont décidé d’offrir leur voie de transit au plus offrant et ont eux-mêmes fort besoin des hydrocarbures de Russie et des Républiques turcophones ex-soviétiques prorusses membres de la Communauté des États indépendants (CEI). Cela étant, d’autres infrastructures (Nord Stream, voir carte n o 13) permettent d’acheminer du gaz de Russie, notamment vers l’Allemagne, pays figurant parmi les plus dépendants de l’UE envers la Russie pour sa demande en gaz naturel (63,5 %). Ce gazoduc, qui passe sous la Baltique et débouche dans le nord de l’Allemagne, a été mis en service en 2012. Nord Stream 2 visait à doubler la capacité de livraisons directes de gaz russes du réseau Nord Stream 1, pour parvenir à 110 milliards de mètres cubes par an. Avec des investissements estimés à 11 milliards d’euros, financés pour moitié par la compagnie russe Gazprom (et le solde par les sociétés européennes OMV, Wintershall Dea, Engie, Uniper et Shell), le projet s’est attiré les foudres du Congrès bipartisan des États-Unis, qui accusait publiquement l’Allemagne d’être « prisonnière » de la Russie et exigeait son abandon 14 ... Nord Stream 2 devait être mis en service début 2020 mais a été brutalement interrompu pendant près d’un an, sous les intenses pressions de l’administration Trump, avant de reprendre en décembre 2020, ceci malgré les sanctions « extraterritoriales » adoptées par les États-Unis en décembre 2019 contre les entreprises allemandes et russes collaborant au projet 15 . En juin 2021, alors que ses 1 230 km étaient quasiment terminés (il manquait en juin 2021 6 % du gazoduc à achever, 74 km), l’administration de Joe Biden a continué à multiplier les pressions pour retarder ou compromettre la mise en route du gazoduc, voyant dans l’Europe un parfait débouché pour son abondant gaz naturel de schiste. C’est dans ce contexte que, le 11 juin 2021, Joe Biden a invité la chancelière allemande Angela Merkel à Washington afin, notamment, de tenter de la convaincre de renoncer au gazoduc atlantistement incorrect... Joe Biden a toutefois renoncé à poursuivre les sanctions, jugées contre-productives, afin de préserver la relation germano-américaine, essentielle pour pérenniser l’hégémonie américaine et atlantiste sur le Vieux Continent. Toujours est-il que cette affaire a confirmé une fois de plus comment la puissance unilatérale étatsunienne instrumentalise des conflits comme l’Ukraine (qu’elle a d’ailleurs contribué à faire exploser 16 ), et des arguments moralistes, pour pérenniser l’aberration internationale que constituent les lois extraterritoriales américaines. Celles-ci permettent en effet au Trésor américain de geler des avoirs de n’importe quels État et compagnie au monde (avec à la clé des « amendes » se chiffrant parfois en milliards de dollars, voir affaire BNP Paribas, Total ou Société générale) accusés de faire du commerce avec des « États voyous » (Rogue States) sous sanctions, ou dont les intérêts énergétiques (Iran, Russie, etc.) dérangent ceux des compagnies étatsuniennes et les stratégies d’endiguement du Deep State américain... Au-delà du gaz russe, les Européens se fournissent également, bien sûr, en Norvège, en Algérie et au Qatar, ce qui explique aussi la permissivité de l’UE vis-à-vis des Frères musulmans en Europe, parrainés et financés justement par Doha... Tout est lié. Et grâce à la diabolisation-éviction du concurrent géoénergétique russe par les États-Unis au nom des dossiers ukrainien et syrien ou de la question des droits de l’homme – très hypocritement orientée en exonérant les pétromonarchies du Golfe bien plus dictatoriales que Moscou – l’Union européenne n’est plus le seul maître de sa destinée énergétique. On est loin de la solidarité russo-européenne et de l’axe géoénergétique Paris- Berlin-Moscou désirée par le général de Gaulle dans le cadre de son plan Fouchet pour une Europe des nations indépendantes des États-Unis et donc « recontinentalisée »... À cet effet, l’ancien secrétaire d’État américain à l’Énergie, Rick Perry, n’avait pas hésité à vanter les mérites du gaz américain – pourtant bien que plus cher que le gaz russe – présenté comme « fiable » et synonyme de « liberté » pour les Européens ! En 2019, les importations de gaz naturel liquéfié (GNL) avaient ainsi bondi de 87 %, et 15 % du total provenaient des États-Unis. Le nucléaire : énergie de tous les dangers pour certains, solution de décarbonation pour d’autres... Abordons maintenant la question du nucléaire civil. Symbole de la puissance technologique et atout majeur des pays le maîtrisant, le nucléaire est aujourd’hui au cœur des débats et enjeux énergétiques car il permet en fait de produire local. Ses partisans rappellent que la fission de l’uranium n’émet pas de gaz à effet de serre et que le cycle carbone de la filière (de l’extraction de minerai à la gestion des déchets radioactifs) est très bas, et même, selon le Giec, encore plus bas que l’énergie éolienne. De plus, si le nucléaire est décrié pour des raisons de sécurité, d’autres y voient une solution bas carbone, d’autant que les réserves prouvées d’uranium sont évaluées à plus de cent ans avec des centrales de plus en plus économes en termes de combustibles. Là encore, les situations diffèrent en fonction des pays, de leur histoire et de leur sensibilité. Ainsi, avec ses 58 réacteurs nucléaires – devenus 56 depuis l’arrêt de Fessenheim en 2020 – la France, pays le plus nucléarisé au monde en proportion, produit 70 % de son électricité dans ses 18 centrales nucléaires, créant ainsi une situation inédite en termes de manque de diversité des sources d’approvisionnement. Cette situation est souvent analysée comme un obstacle à la production électrique renouvelable. Comparé au plus grand parc nucléaire au monde, américain (95 réacteurs opérationnels dans 65 centrales nucléaires, plus 2 en construction et 38 mis à l’arrêt définitif), la France est certes loin des États-Unis, avec une production de 395,91 TWh, contre 808 TWh. Par soucis de compétitivité, le programme nucléaire civil étatsunien, un temps freiné, a en fait été relancé depuis 2010 17 . Le budget consacré par le Department of Energy (DoE) à la filière nucléaire est ainsi passé de 986 millions de dollars, en 2016, à 1,493 milliard en 2020. Les États- Unis semblent de la sorte déterminés à faire renaître la filière énergétique nucléaire, notamment afin d’éviter un déclassement définitif en faveur de la Chine et de la Russie, ceci au moment où l’Europe se dénucléarise sans réussir la transition vers les renouvelables, comme on l’a vu en Allemagne qui ne réduit ses émissions qu’à la marge. La Chine une fois de plus leader dans le domaine La Chine est toutefois le pays dans lequel l’énergie nucléaire a le plus progressé et à une vitesse record. Pour réduire sa dépendance au charbon, le gouvernement de Pékin a en effet multiplié par dix le nombre de centrales nucléaires en fonctionnement en 2000, avec un objectif de capacité de 120-150 GW pour 2030, contre 63 GW aujourd’hui en France... En 2019, la Chine disposait de 47 réacteurs en fonctionnement (contre 38 en 2018). En plein été 2020, l’Association chinoise d’énergie nucléaire annonçait, malgré la pandémie de la Covid, la construction de 6 à 8 réacteurs par an d’ici à 2025, soit le double du rythme actuel, ceci en évitant les retards et les surcoûts qui ont largement handicapé le nucléaire français. Les catastrophes nucléaires successives 18 , qui ont quelque peu refroidi les ardeurs, expliquent notamment les technologies innovantes du secteur, par hybridation du réacteur américain et de l’EPR français, dont une version chinoise a permis de faire émerger le réacteur phare Hualong-1 19 . Ce réacteur, installé dans la centrale de Fuqing, au sud-est du pays, est le premier-né du modèle à eau pressurisée, conçu et construit 100 % made in China. Ses promoteurs rêvent de conquérir les marchés extérieurs. La Chine a ainsi vendu 2 réacteurs au Pakistan (et 3 supplémentaires en cours), et elle négocie des contrats avec le Royaume-Uni, l’Argentine, l’Iran, la Turquie, l’Afrique du Sud, le Kenya, l’Égypte, le Soudan, l’Arménie et le Kazakhstan. Pékin coopère également avec la Russie – entreprise Rosatom – pour enrichir l’uranium et développer des projets de centrales équipées des réacteurs russes VVER. La Chine est ainsi devenue un acteur majeur de la filière nucléaire à l’échelle internationale sur la totalité de la chaîne de conception, de construction et d’exploitation. Elle se distingue par ses innovations et notamment par un programme basé sur des démonstrateurs appelé le « Dragon Rising 2020 ». Pékin investit en plus fortement dans l’innovation et effectue des recherches intenses sur la fusion thermonucléaire. Depuis 2003, le pays est ainsi partenaire du grand projet international Iter de réacteur thermonucléaire (qu’on appelle également un tokamak). Le réacteur, situé à Cadarache en France, devrait générer son premier plasma en 2035. Mais la Chine possède aussi ses propres réacteurs et a battu, le 28 mai 2021, un record de température de fusion dans le troisième tokamak qu’elle vient de construire : l’Experimental Advanced Superconducting Tokamak (East) a atteint 160 millions de degrés Celsius et il a surtout réussi à maintenir son plasma à une température de plus de 120 millions de degrés Celsius pendant cent une secondes. D’évidence, même dans ces domaines, l’empire du Milieu promet de ne plus se contenter d’imiter, mais de déclasser l’Europe, et, à terme, les États-Unis... L’enjeu géoéconomique majeur des terres rares, la Chine toujours n o 1 La Chine a pour objectif non dissimulé de concurrencer les pays occidentaux dans tous les domaines stratégiques, économiques et industriels, puis de remporter les plus grands marchés dans le domaine de la transition énergétique. Dans cette entreprise pour le leadership global qui passe par le déclassement de l’Occident, elle a déjà inondé le monde entier en panneaux solaires made in China, bien moins chers que ceux des pays occidentaux, et cette victoire a été en partie facilitée par le fait qu’elle contrôle 90 % des matières premières nécessaires à leur fabrication comme les terres rares. Le résultat a été de littéralement détruire l’industrie européenne solaire, la quasi- totalité des entreprises spécialisées dans la technologie photovoltaïque étant d’ores et déjà chinoises. De ce point de vue, la suprématie chinoise en matière d’exploitation des terres rares condamne les pays occidentaux à une dépendance extrêmement problématique dans l’avenir. Les terres rares désignent une catégorie de métaux rares aux fabuleuses propriétés physico-chimiques. Leur nom (en anglais Rare Earth Elements ou REE) vient de leur difficulté d’extraction : elles sont présentes en abondance, mais avec des concentrations très faibles. Elles sont à la base des technologies NTIC et informatiques, notamment pour les batteries, et au cœur même des industries liées à la transition énergétique et aux énergies renouvelables : dans le futur, nous sommes censés produire le plus possible d’électricité à l’aide des énergies renouvelables (solaire photovoltaïque, éolien), ce qui signifie qu’il sera presque impossible de s’éclairer, de se chauffer, voire de travailler sans ces précieux métaux. Les terres rares sont utilisées dans le domaine des énergies renouvelables, dans la fabrication de véhicules électriques, des batteries, des panneaux solaires, des éoliennes, etc., mais aussi dans le domaine du numérique (écrans, puces, composants des smartphones, fibre optique), notamment les réseaux digitaux. Elles sont, bien sûr, également nécessaires à la technologie 5G, dominée par la Chine, sans oublier les secteurs médical (radiologie), militaire (lasers, composants des drones, des missiles), et plus globalement à tout équipement connecté. Aujourd’hui, dans un contexte de transition énergétique et de réduction des gaz à effet de serre, la majeure partie des gouvernements se tourne vers les énergies renouvelables, or les voitures électriques nécessitent d’investir massivement dans des technologies très utilisatrices de métaux rares. Les enjeux industriels et politiques sont par ailleurs colossaux : les pays producteurs ont gros à y gagner, et la recherche, l’appropriation et l’exploitation de ces ressources peuvent conduire à des tensions géopolitiques et commerciales, la transition écologique étant aussi et avant tout une transition économique. Selon un rapport de la Banque mondiale 20 , la demande en métaux rares va croître énormément dans les prochaines années : le néodyme, par exemple, utilisé dans la fabrication d’aimants et fondamental pour l’industrie éolienne et les véhicules électriques, devrait voir sa demande augmenter de 150 à 250 %. Celle de métaux comme l’aluminium, le cobalt, le fer, le plomb, le lithium, le manganèse et le nickel pourrait être multipliée par plus de 10 d’ici 2030. Quant à la demande d’indium, utilisé massivement dans le solaire, elle pourrait exploser de 250 à 300 %. Ces ressources viennent de différentes zones : le cobalt provient principalement de la République démocratique du Congo, le lithium surtout d’Australie et d’Amérique du Sud (Bolivie, Chili, Argentine). Ces métaux rares peuvent être produits un peu partout dans le monde, mais la Chine, qui détient des réserves colossales, est le premier producteur mondial. Elle produit notamment les deux tiers du graphite et surtout 88 % des terres rares 21 ! Certes, elle ne dispose « que » de 37 % des réserves de terres rares dans le monde, soit 44 millions de tonnes, mais c’est elle qui investit, extrait et produit le plus, disposant à la fois des ressources, de la main-d’œuvre, et des contraintes environnementales faibles qui permettent leur exploitation. Après le pétrole, les métaux rares sont devenus notre nouvelle dépendance majeure, or leur production est concentrée en Chine. Un véritable problème de sécurité nationale pour les autres pays qui doivent rattraper le retard. L’industrie américaine des métaux rares s’est quant à elle écroulée, en partie en raison des polémiques environnementales. Déjà, en 1992, le Président chinois, Deng Xiaoping, déclarait : « Le Moyen-Orient a du pétrole, la Chine a des terres rares », preuve que Pékin avait compris très tôt la nature stratégique de ces métaux. Et la Chine est bien plus ambitieuse que les pétromonarchies du Golfe : elle ne se contente pas du quasi-monopole des mines, mais veut aussi détenir celui des usines. L’empire du Milieu n’est en effet pas uniquement « l’usine du monde » qui fournit des produits bas de gamme et bon marché, mais elle s’impose aujourd’hui également comme un des principaux fournisseurs de haute technologie. La stratégie chinoise d’innovation vise en fait à faire de ce pays la plus grande puissance technologique et innovante d’ici à 2050 en complétant le plan « made in Chine 2025 22 ». La Chine concurrence donc les pays occidentaux dans des domaines qu’ils contrôlaient depuis longtemps, comme l’automobile. Elle est aujourd’hui le premier producteur mondial de batteries au lithium, utilisées dans les voitures électriques. Dans un contexte de conflit commercial avec les États-Unis, cela rend ces domaines très dépendants des terres rares pour les industries. Il s’agit là d’un sujet de tensions, surtout depuis l’attaque commerciale des États-Unis sur la compagnie chinoise Huawei. En effet, dans l’hypothèse d’un blocage de l’exportation des terres rares par la Chine vers les États-Unis 23 , les difficultés d’acheminement pour ces derniers seraient très importantes. Cette tactique a d’ailleurs déjà été utilisée par la Chine contre le Japon en 2010, lorsque Pékin a interrompu l’approvisionnement en matériaux à la suite d’un différend territorial en mer de Chine. Nombre d’entreprises japonaises, notamment celles spécialisées en robotique ou automobile, comme Toyota, dont la gamme de véhicules hybrides nécessite beaucoup de terres rares, ont été ainsi en rupture d’approvisionnement. Plus récemment, Pékin a menacé de restreindre ces exportations de terres rares vers les États-Unis, qui en dépendent à 80 %. Le risque de rupture d’approvisionnement de ces matériaux vitaux pour son économie est un véritable cauchemar pour Washington. Le pays de Xi Jinping, maître du marché, peut donc aujourd’hui augmenter ou baisser à sa guise les prix. Les États-Unis tentent certes de contrer cette domination chinoise problématique, comme on l’a vu en 2019, avec la proposition de Donald Trump de racheter le Groenland au Danemark, le Groenland regorgeant de ressources (hydrocarbures, métaux rares) dont d’importants gisements de terres rares. Mais cette proposition est restée purement théorique et l’Amérique est loin d’avoir trouvé la parade à cette dangereuse dépendance vis-à-vis de la Chine. On est d’ailleurs en droit de se demander quelle sera la stratégie de Joe Biden qui ne s’est pas trop exprimé sur ce défi, sachant que les États-Unis n’ont rien entrepris de concret pour rattraper substantiellement leur retard et qu’ils n’ont étonnement pas investi les sommes nécessaires dans des plans de long terme visant à produire des terres rares ou à acheter des mines dans le monde dans le même but. Autre sujet lié aux terres rares, la production de semi-conducteurs fait débat. L’Europe fabrique aujourd’hui un peu moins de 10 % des semi-conducteurs, et elle en reste très dépendante, à tel point que sa production automobile a été ralentie en raison de la pénurie mondiale de semi-conducteurs. De plus, rappelons que la firme taiwanaise TSMC, leader mondial, produit 70 % des composants électroniques destinés à l’automobile, or Taiwan pourrait redevenir chinoise sous peu... Par conséquent, la Chine hériterait une fois de plus du monopole d’un élément stratégique. Conscients de leur grave dépendance vis-à-vis de la Chine, les États-Unis souhaitent investir 37 milliards de dollars pour soutenir GlobalFoundries, Micron Technology et Intel afin d’approvisionner les constructeurs automobiles. Intel s’est d’ailleurs dit prêt à construire une usine en Europe et également deux autres en Arizona. Mais la Chine, qui a toujours un coup d’avance sur les autres, grâce à sa capacité à élaborer des plans de long terme, a débloqué 88 milliards de dollars pour arriver à 70 % d’autosuffisance d’ici 2025. Bien que leader de la production des métaux rares, la Chine en est également un très gros consommateur en raison de ses ambitieux plans industriels et elle en est devenue, en 2018, le plus gros importateur. Elle devrait avoir des difficultés d’approvisionnement dès 2025. Dans ce contexte, pour ne pas perdre une arme industrielle, Pékin cherche ces métaux ailleurs, le long des « nouvelles routes de la soie » (BRI). Même si leur objectif n’est pas tourné vers les terres rares, ces nouvelles routes pourraient favoriser la mise en place de partenariats pour l’exploitation des ressources. Ce phénomène est déjà observé en Afrique, continent qui détient d’importantes réserves de métaux, et où la Chine augmente petit à petit son influence, bien qu’encore minoritaire par rapport aux entreprises occidentales. L’investissement chinois dans l’exploitation minière en Afrique progresse très rapidement 24 . Pour l’instant, les minerais concernés ne sont pas principalement les terres rares, mais d’autres métaux tout autant stratégiques comme le cuivre, le fer, le cobalt, le zinc ou le nickel. La valeur de la production minière contrôlée par des investisseurs chinois à l’extérieur de la Chine était de 21,5 milliards de dollars en 2018 25 . Toujours en 2018, les entreprises chinoises contrôlaient moins de 12 % de la valeur totale des minéraux et des métaux produits en Zambie, 24 % en République démocratique du Congo (notamment pour le cobalt) et 37 % en Guinée. En Érythrée, où aucune autre société minière n’est active, les sociétés chinoises partagent le contrôle avec le gouvernement érythréen, avec 60 % pour la Chine. Entre 2005 et 2013, Pékin a investi 108 milliards de dollars en Afrique, dont 16,3 dans le secteur minier 26 . Les investissements miniers chinois globaux sont estimés autour de 125 milliards pour la même période. La Chine a donc rapidement développé son influence dans les pays concernés par les routes de la soie, d’où, par exemple, la prise de contrôle du port sri lankais de Hambantota par la Chine 27 . Il ne sera pas impossible à l’avenir de voir des pays financièrement faibles tomber dans le piège de la dette, et de devoir de ce fait « rembourser » la Chine avec leurs ressources naturelles. Ainsi, une dizaine de pays (Djibouti, Kirghizstan, Laos, Maldives, Mongolie, Monténégro, Pakistan, Tadjikistan, Éthiopie, Kenya) ne seraient pas en mesure de rembourser leurs dettes à la Chine. Récemment, le Monténégro qui s’est retrouvé dans l’incapacité de rembourser un crédit de 1 milliard de dollars (944 millions) et, après avoir appelé en vain l’UE à l’aide pour un soutien financier, a été touché par la stratégie chinoise. Depuis quelques années, le gouvernement chinois investit massivement dans les Balkans, car cette zone stratégique est l’aboutissement des routes de la soie, Pékin exploitant les divisions et rivalités intereuropéennes pour renforcer son emprise géoéconomique sur le Vieux Continent. Par ce « piège » de la dette, la Chine pourrait être en mesure non seulement de construire les routes et lignes ferroviaires nécessaires pour le projet de routes de la soie, mais aussi de prendre littéralement le contrôle d’infrastructures nationales entières, dans une sorte de néocolonialisme géoéconomique à la chinoise à l’assaut de la souveraineté des États les plus vulnérables. Les terres rares, clé des énergies renouvelables, mais désastre pour l’environnement... La surexploitation et la surconsommation de matières premières poussées par la mondialisation marchande a des effets dévastateurs, car pour l’exploitation des métaux, la Chine n’a pas hésité à détruire des écosystèmes, à assécher des nappes phréatiques et à polluer massivement. Pour ce faire, de nombreux produits chimiques sont utilisés, dont l’acide fluorhydrique, sous forme de poussière, que respirent les mineurs et qui est particulièrement nocif. Les produits nocifs utilisés se répandent à des kilomètres aux alentours des mines vers les zones agricoles, ce qui rend les terres de moins en moins fertiles et contamine les récoltes. Des villages entiers ont également été abandonnés. Mais les vies humaines ont peu de valeur aux yeux des autorités chinoises, comparées à l’intérêt économique de la production et son enjeu géoéconomique. Le pays compte des milliers de mines et de raffineries de métaux rares : la ville de Baotou, en Mongolie intérieure, est zone d’exploitation contrôlée par Pékin la plus connue, avec des infrastructures impressionnantes (dédiées au raffinage des terres rares). C’est aussi une des zones les plus polluées du monde avec des eaux surchargées de métaux lourds et même parfois radioactifs, relâchés par les raffineries qui vont ensuite s’infiltrer dans le sol et les nappes phréatiques, ce qui implique de sérieux problèmes de santé et entraîne le déplacement de populations entières. Les habitants de la région continuent malgré tout à vivre autour de ces mines dans des villages que l’on appelle aujourd’hui « villages du cancer » en raison de l’augmentation impressionnante des tumeurs 28 . C’est au prix de cette pollution que nos voitures électriques, panneaux solaires et éoliennes viennent diminuer les émissions de CO 2 chez nous. En réalité, les émissions sont tout simplement délocalisées, car la Chine en émet beaucoup pour assurer la production, et c’est aussi pour éviter les catastrophes écologiques que les Occidentaux ont délocalisé massivement ces industries en Chine ou ailleurs, ce qui souligne l’extrême hypocrisie des moralisateurs qui veulent bénéficier des avantages de la nouvelle économie consommatrice de terres rares et productrices de CO 2 mais sans en subir les conséquences sur leur sol... Stress hydrique et barrages : les guerres de l’eau en question L’eau, élément vital, est encore plus essentielle à l’humanité que les énergies étudiées plus haut. Elle est essentielle au développement socio-économique, à la production d’énergie et d’aliments, à la santé des écosystèmes et à la survie de l’humanité elle-même. Et elle est plus que jamais un enjeu de rivalités entre les nations. L’eau est également au cœur de l’adaptation aux changements climatiques, lien crucial entre la société et l’environnement. Les villes ayant toujours été construites en priorité près des points d’eau, l’abondance d’eau dans une région est souvent synonyme de richesse. À l’inverse, là où l’eau n’est pas présente ou presque, la pauvreté y est plus fréquente et les conditions de vie plus précaires. Même riches, les pays enclavés n’ayant pas d’accès aux grands fleuves et à la mer sont en situation de vulnérabilité. Et ceux qui sont situés dans des zones équatoriales et désertiques ont un vrai défi à relever face à la nature et à leurs voisins pas forcément coopératifs. Indépendamment des rivalités entre nations, autour de l’accès aux mers et aux fleuves, avoir une bonne gestion de l’eau est un vecteur essentiel de l’amélioration des conditions de vie et de la cohésion de la société tout entière. Quelques chiffres 2,2 milliards de personnes dans le monde n’ont pas accès à des services d’eau potable gérés de manière sûre. 4,2 autres milliards d’êtres humains manquent de services d’assainissement gérés de manière satisfaisante et sûre. 297 000 enfants de moins de 5 ans meurent chaque année de maladies diarrhéiques à cause d’eau de mauvaise qualité. Surtout, près de 700 millions de personnes n’ont toujours pas accès à une eau propre et salubre et deux autres milliards auraient besoin d’accéder à un assainissement amélioré. Environ 80 % des eaux usées dans le monde sont rejetées dans l’environnement sans traitement. L’agriculture représente près de 70 % des prélèvements d’eau 29 . L’eau devient une ressource de plus en plus rare et précieuse, notamment dans certaines zones mal dotées, et l’on estime que les besoins en eau devraient augmenter de 40 à 50 % d’ici une trentaine d’années. Par ailleurs, les États peu développés ou ayant une économie faible ont les plus grandes difficultés à relever le défi de la pénurie, car ils n’ont pas les moyens budgétaires et technologiques pour réaliser les investissements nécessaires permettant de traiter les eaux usées ou de dessaler l’eau de mer. Et du fait de l’augmentation de la demande (qui a plus que triplé en un demi-siècle), les pays les moins avancés et en pleine explosion démographique et économique auront à l’avenir de plus en plus de difficultés pour se procurer de l’eau potable. C’est là que le cercle vicieux du développement et de la mondialisation apparaît : avec les taux de natalité incontrôlés, le fait de manquer de ressources hydrauliques freine à son tour le développement économique, agricole et énergétique. La consommation en eau d’un pays est par conséquent un indicateur de développement économique et un motif possible de conflits entre pays qui se partagent les eaux. D’après les estimations, la consommation d’eau douce mondiale a augmenté d’environ 1 % par an entre 1987 et 2018. Beaucoup de régions ont ainsi atteint les limites de leur approvisionnement tandis que les échanges, l’urbanisation et la population mondiale ont augmenté. Il faut aussi savoir que la population s’accroît en majorité dans les pays en développement, avec en tête l’Inde et le Nigeria, qui sont déjà tous deux en situation de stress hydrique grave. Il y a un siècle, 15 000 m 3 d’eau étaient annuellement disponibles par habitant de la planète. En 2030, il ne devrait en rester que 3 000, le minimum vital étant de 1 800 m³. Les causes majeures de cette baisse sont la croissance démographique, l’évolution des modes de consommation alimentaire (hausse du niveau de vie) et les besoins accrus en énergie liés à la mondialisation marchande et au développement. À l’avenir, notre alimentation risque donc d’être par ailleurs profondément perturbée, quand on sait qu’il faut environ 15 000 litres d’eau pour produire 1 kg de viande de bœuf, alors que la demande s’accroît dans les pays en développement (Inde, continent africain et d’autres comme des pays comme les États-Unis, l’Argentine ou le Brésil) en raison de la consommation démesurée. En France et dans l’ensemble des pays européens du Sud, les épisodes de sécheresse chaque été, les restrictions d’usage associées et le contexte de crise ont donné un intérêt nouveau au débat sur la gestion de la demande en eau, en particulier sur les instruments économiques, financiers et fiscaux, tels que les prix et taxes sur les prélèvements et rejets. On observe aussi en Italie ou en Espagne des mesures de coupure d’eau pendant les périodes de sécheresse en vue d’économies. Le réchauffement climatique et la surconsommation de l’eau vident de plus en plus les nappes souterraines et les rivières à mesure que les besoins augmentent. Ceci fera fortement augmenter le prix de l’eau à l’avenir, les plus pauvres ne pouvant plus, à terme, satisfaire leurs besoins les plus élémentaires. De plus, les conséquences du réchauffement climatique obligent chaque année toujours plus de personnes à quitter des zones arides devenues invivables et en voie de désertification. Ces migrations et mouvements de populations sont naturellement un puissant vecteur d’instabilité et de conflits entre nations ou tribus, souvent d’ailleurs sur fond de tensions ethnoreligieuses (Burkina Faso, Mali, Niger, Nigeria, etc.). Il faut savoir que rien qu’en 2019, selon l’IDMC (Observatoire de déplacement interne 30 ), 8 millions de personnes ont été poussées à l’exode à cause de catastrophes naturelles, dont environ 800 000 liées aux sécheresses. En moyenne, plus de 17 millions de personnes risquent d’être déplacées par les inondations chaque année, et ces chiffres ne peuvent malheureusement qu’augmenter à l’avenir. En Afrique également, les fleuves Congo, Niger et le Nil Bleu constituent des théâtres d’investissements autour de l’énergie hydroélectrique. Les compagnies chinoises rivalisent en lobbying avec les multinationales occidentales et israéliennes pour y remporter les marchés. Dans le même temps, les projets de barrages hydrauliques ambitieux comme ceux d’Éthiopie peuvent être de graves sources de tensions, voire de guerre, entre pays voisins, en l’occurrence entre l’Éthiopie, le Soudan et l’Égypte. Le contrôle des rivières, mers et océans, source de conflits L’essor de la mondialisation économique a créé de nouveaux enjeux géoéconomiques dans lesquels l’eau détient une place fondamentale, que ce soit pour la vie des populations, l’agriculture, ou le contrôle des routes commerciales ou des réserves énergétiques s’y trouvant. La question de potentialité des conflits autour de l’eau est en tout cas de taille, lorsqu’on sait que plus de 40 % de la population mondiale est répartie autour de 250 bassins transfrontaliers. Cela implique pour les populations de devoir partager leurs ressources avec leurs voisins, les risques de tensions étant très importants lorsque les pays où se trouvent les sources sont tentés de profiter de leur position avantageuse. Les tensions au sujet de l’eau peuvent venir de plusieurs causes : sécheresse, barrages ou autres aménagements hydrauliques et détournements des flux qui diminuent les ressources d’un pays aux dépens d’un autre ; répartitions des zones d’exploitation des fleuves imprécises ; pollution ; usages abusifs. Depuis une dizaine d’années, les tensions et contentieux interétatiques liés à l’eau sont en nette augmentation, et les « guerres de l’eau », spectre régulièrement agité depuis des décennies, mais heureusement jamais concrétisé dans ses modalités les plus pessimistes, deviennent de plus en plus probables. D’autant qu’au-delà de la simple nécessité d’avoir de l’eau pour s’alimenter et pour l’agriculture, les mers et les océans regorgent de matières premières et d’hydrocarbures. En témoignent les récentes disputes autour des réserves de gaz et de pétrole off-shore en mer de Chine (opposant Chine, pays d’Asie du Sud-Est et Japon) et en Méditerranée orientale (entre la Turquie et la quasi-totalité des pays riverains voisins). Désertification, ressources hydriques, disputes autour des ZEE et des barrages vont de plus en plus devenir des sources de déstabilisation, voire de guerres, sachant que les grandes routes commerciales de la mondialisation sont essentiellement maritimes. Le contrôle de ces mêmes routes est un enjeu vital pour les nations exportatrices. Les pays privés d’accès à la mer, et donc aux énergies qui s’y trouvent, ou dont les eaux fluviales sont diminuées à cause des barrages effectués en amont par des pays disposant des sources et peu soucieux de rechercher un consensus, peuvent être tentés d’instaurer leur propre ordre régional unilatéral. Surtout s’ils ont l’avantage militaire, comme la Chine, l’Égypte ou la Turquie, par rapport à leurs voisins. Par ailleurs, les normes, accords ou réglementations internationales autour de la gestion et des partages des eaux manquent cruellement ou sont bafoués au nom des intérêts nationaux. Ici encore, l’échec du multilatéralisme est patent et les traités de coopération acceptés – donc fonctionnels sur ces matières – ne couvrent aujourd’hui que 60 des 250 bassins fluviaux précédemment évoqués. Certains experts n’hésitent plus à pronostiquer qu’au XXI e siècle, l’« or bleu » prendra la place de l’« or noir » dans les conflits entre États. Avoir accès à l’eau est un enjeu économique majeur qui pourrait devenir, dans le siècle à venir, l’une des premières causes de tensions internationales pour les raisons exprimées précédemment. Depuis plusieurs décennies, le programme des Nations unies pour le développement (Pnud 31 ) a recensé une quarantaine de situations conflictuelles entre des États au motif de l’accessibilité aux ressources hydriques. Elles concernent pour l’essentiel les pays moyen-orientaux et africains, même si, pour le moment, aucune de ces crises ne s’est transformée en un conflit durable. En Asie, par exemple, les litiges autour de l’eau des fleuves ne manquent pas : les grands travaux chinois destinés à détourner les eaux du Mékong, notamment pour les canaliser vers d’autres cours d’eau, ou même du Brahmapoutre, du Gange, de l’Indus, de Syr-Daria ou de l’Amou-Daria, inquiètent le Laos, le Cambodge, le Viêtnam, et d’autres pays d’Asie. Les réserves d’eau potable peuvent également être les cibles d’offensives militaires ou terroristes pouvant causer des catastrophes humanitaires 32 . Il peut s’agir d’attaques sur des digues, les barrages (dont la destruction éventuelle rend les villes aux alentours extrêmement vulnérables), ou les centrales hydroélectriques, qui viseraient à toucher directement les populations civiles et à créer des situations de troubles internes et de chaos. On peut citer ici l’exemple de la destruction, en juin 1938, de la digue de Huayuankow sur le fleuve Jaune, lors de la guerre Chine- Japon, qui provoqua des inondations de milliers d’hectares et fit entre 500 000 et 900 000 victimes et plus de 5 à 10 millions de réfugiés. Il s’agit de l’un des plus grands désastres écologiques militaires de l’histoire. Il en est allé de même durant la guerre du Viêtnam, avec le déversement, par les forces américaines, de produits chimiques et défoliants (agent orange chargé de dioxine et d’arsenic) qui ont entraîné une pollution destructrice des sols sur les populations dont les effets sont encore visibles aujourd’hui. Guerres de l’eau entre la Turquie et ses voisins La Turquie est un pays très avantagé pour ses ressources en eau en comparaison de ses voisins syrien et irakien. Elle s’est donc vue attribuer le nom de « château d’eau de la région », grâce au fait que le Tigre et l’Euphrate prennent leurs sources en Anatolie avant de se diriger vers la Syrie et l’Irak. Ankara a ainsi construit nombre de barrages hydroélectriques, notamment en Anatolie orientale, ce qui lui confère des moyens de pression considérables sur ses voisins, puisqu’elle peut jouer sur les variations de débit du fleuve. Les problèmes opposant la Turquie à ses voisins irakien et syrien sont certes anciens, mais après avoir été mis au second plan dans les années 2000, Recep Tayyip Erdoğan les a ressuscités en même temps que son projet irrédentiste néo-ottoman (voir carte n o 9) voué à dominer les pays arabes voisins. Ankara refuse de reconnaître que les fleuves Tigre et Euphrate (dont les sources se trouvent en Turquie anatolienne) sont internationaux, ceci afin de ne pas se voir imposer des contraintes. Le pouvoir turc poursuit donc sa politique de grands barrages au détriment de ses voisins situés en aval qui voient de ce fait leur débit diminuer : l’Euphrate draine à lui seul un bassin-versant de 440 000 km² réparti à 35 % en Syrie et 45 % en Irak, et le Tigre draine 258 000 km², avec 53 % en Irak et 33 % en Iran principalement 33 . Depuis les années 1970, le projet GAP (Great Anatolian Project) tient une place stratégique majeure dans la politique énergétique d’Ankara, et il devrait lui permettre à terme de contrôler près de 90 % du débit de l’Euphrate et plus de 50 % de celui du Tigre, avec au total 22 barrages. Les baisses de débit des fleuves subies par les pays voisins ont déjà atteint un niveau insupportable : l’Euphrate a perdu 40 % du débit arrivant en Syrie, et le Tigre 24 % de celui débouchant sur l’Irak. Les conséquences pour la Syrie et l’Irak sont dramatiques, notamment à cause du barrage d’Illisu (frontière turco-irakienne), qui pompe l’eau du Tigre. Ces diminutions de son débit côté irakien ont notamment débouché sur les émeutes de la soif de Bassora, survenues en 2018 après les fortes pénuries d’eau et la pollution des rivières qui ont entraîné l’hospitalisation d’au moins 118 000 personnes. La Turquie à l’assaut des réserves de gaz et de pétrole de Méditerranée orientale La politique géoénergétique de la Turquie en mer Méditerranée orientale ressemble à celle de Pékin en mer de Chine méridionale. Sa consommation de gaz augmentant considérablement depuis dix ans en raison de la rapide croissance économique turque et de l’augmentation de sa population, Ankara a récemment réactivé son vieil irrédentisme ottomaniste visant à justifier une mainmise sur les énergies de cette mer stratégique et ses ZEE. Le territoire turc est certes une voie de transit majeure pour le gaz et le pétrole arabes et perses du Golfe, puis turcophones et russes de la zone Caucase-mer Caspienne 34 , d’où l’inauguration du gazoduc russo-turc Turkish Stream, le 8 janvier 2020 35 (voir carte n o 13). Toutefois, c’est dans la mer que se trouvent les énergies qui manquent au territoire turc, peu producteur d’hydrocarbures, et dont le pouvoir d’Ankara veut s’emparer au détriment de ses voisins. Les énormes réserves de gaz off-shore découvertes et prouvées dans les années 1990-2000 en Méditerranée orientale (Chypre, mer Égée, Égypte, Palestine-Gaza, Israël, Liban, Syrie), évaluées à 50 milliards de mètres cubes, constituent un enjeu quasiment vital pour Ankara, d’où le contentieux croissant avec les États riverains partageant ces eaux. Les deux pays les plus directement visés par les appétits géoénergétiques turcs sont la Grèce et Chypre. Anticipant les revendications d’Ankara, la république de Chypre – dont 37 % du nord est occupé illégalement depuis 1974 par l’armée turque – avait certes délimité sa frontière maritime avec l’Égypte dès 2004, avec le Liban en 2007, avec Israël en 2010, et elle signa plusieurs accords avec des sociétés pétrolières internationales comme l’italienne Eni, la française Total, les américaines Noble Energy ou ExxonMobil et la britannique BP (voir carte n o 7). Mais le problème n’a pas pu être résolu sur la base des accords internationaux et les principes du droit de la mer : la Turquie ne reconnaît pas la convention de Montego Bay sur le droit de la mer, pourtant reconnue par tous les pays de l’Union européenne, car elle accorderait, selon Ankara, beaucoup trop peu de souveraineté sur les eaux et îles avoisinantes à la Turquie. Le gouvernement turc prétend ainsi avoir été injustement « exclu » des marchés des forages qui impliquent Israël, où les champs gaziers Leviathan et Tamar ont été découverts. Il conteste de ce fait toutes les frontières maritimes et délimitations entre Chypre, la Grèce et les pays arabes ou Israël, et il affirme en particulier que ni la république de Chypre (non reconnue par Ankara, voir carte n o 12), ni les îles grecques de Crète et de mer Égée n’ont droit à des ZEE larges comme celles définies jusqu’alors (voir carte n o 7). Comme le pouvoir de Pékin en mer de Chine méridionale, le régime d’Ankara conteste donc les frontières maritimes établies et revendique un redécoupage des ZEE, de gré ou de force, comme on l’a vu depuis 2018. La narration turque permet de revendiquer la moitié des eaux et réserves de gaz off-shore de Méditerranée orientale au détriment des autres pays riverains et elle sert à légitimer ses forages illégaux et ses actions visant à empêcher, manu militari, les forages légalement entrepris par les pays riverains... Conflit avec Chypre et la Grèce Pour la Turquie, les accords d’exploitations légaux signés par Chypre avec ses voisins ne « représenteraient » que la partie non turque de Chypre, une accusation rejetée par Nicosie qui déplore que la présence turque dans le nord est le fruit d’une invasion (opération Attila, 1974, voir carte n o 12) et d’une occupation illégale 36 . Le 22 février 2018, la marine turque a ainsi envoyé quatre navires protégés par son aviation militaire dans le périmètre de l’île d’Aphrodite pour prospecter et extraire illégalement du gaz, et elle en a même chassé manu militari un navire de forage du pétrolier italien Eni qui se rendait au champ gazier égyptien de Zohr. Les navires turcs ont empêché la plate-forme navale de l’Eni (Saipem 12000) de forer dans le sud de Chypre, zone off-shore qui avait déjà été mise « sous embargo » par la Turquie le 9 février 2018 avec l’envoi de cinq navires de guerre turcs. Début octobre 2019, Ankara a envoyé à nouveau son navire de forage Yavuz, opéré par la compagnie étatique turque TPAO, sur le bloc de forage off-shore n o 7, pourtant octroyé initialement à l’italienne Eni et à la française Total par la république de Chypre (voir carte n o 7). La Turquie a donc ainsi violé la légalité et la souveraineté chypriote. La France a été alors le seul pays de l’UE (hors Grèce) à se montrer diplomatiquement, politiquement et militairement solidaire de Chypre qui dénonce les forages illégaux turcs au sud de l’île (zones 7 et 8) en violation totale du droit international maritime. La Grèce est également contestée dans ses frontières maritimes mêmes : Ankara remet régulièrement en question le traité de Lausanne, fondateur de la Turquie post-ottomane, qui accordait à la Grèce 43 % des espaces marins en mer Égée. Cette dénonciation des frontières internationalement reconnues fait de plus en plus planer sur la Grèce, le pire scénario : celui de l’invasion d’îles grecques égéennes survolées illégalement chaque jour par l’aviation turque. Ankara menace en effet régulièrement d’envahir des îles grecques si un nouveau partage des eaux territoriales à son avantage n’est pas mis en œuvre. Cette revendication remet dangereusement en cause le droit de la mer et les frontières internationalement reconnues entre la Turquie et ses voisins. Athènes dénonce également le récent accord turco-libyen controversé, signé en 2019, relatif au partage des espaces maritimes entre Ankara et le gouvernement de Tripoli et qui vise en fait à accroître considérablement la souveraineté maritime de la Turquie en Méditerranée dans une large zone située entre la Crète et Chypre qui regorge de gaz et où Ankara a effectué des forages exploratoires. (Voir carte n o 5). Ces forages illégaux ont été dénoncés par l’Union européenne, qui a menacé en vain Ankara de sanctions. À ce propos, il est instructif de visionner l’audition, le 1 er juillet 2020, de l’ambassadeur de Turquie, Ismaïl Hakki Musa, à la commission des Affaires étrangères du Sénat 37 . Le diplomate y reconnaît que son pays revendique officiellement un plus grand domaine maritime (zones économiques exclusives) au détriment de deux pays membres de l’UE – Chypre et la Grèce – et qu’il conteste carrément le tracé des frontières issues du traité de 1923. L’ambassadeur expose ainsi courtoisement la vision turque irrédentiste officielle décomplexée et justifie les repérages et forages illégaux des navires pétroliers et gaziers turcs dans les eaux souveraines de Chypre et des îles grecques égéennes. Le 21 juillet 2020, la marine turque a d’ailleurs dépêché dix- huit navires de guerre dans les eaux territoriales grecques chargés « d’escorter » un pavillon de recherche d’hydrocarbures sous-marin prospectant illégalement les réserves de gaz autour de l’île grecque de Kastellorizo. Affaire à suivre... Conflit avec l’Égypte autour de la Méditerranée et de la Libye Sachant que Chypre et l’Égypte ont conclu un important accord portant sur la construction du premier pipeline sous-marin transportant du gaz naturel chypriote depuis le gisement off-shore « Aphrodite » jusqu’en Égypte, qui le transformera en gaz naturel liquéfié, l’Égypte a dû envoyer en février 2018 son porte-hélicoptères Mistral Anouar el Sadate et des sous-marins pour défendre le champ gazier égyptien de Zohr revendiqué par la Turquie. Les deux pays s’opposent aussi – et même surtout – au sujet de la Libye, tant pour le pétrole terrestre que pour le gaz off-shore, l’enjeu étant gigantesque et la mer entrant en scène sur deux plans complémentaires. Outre le fait que, depuis le printemps 2020, la Turquie d’Erdoğan a pris fait et cause pour les milices des Frères musulmans de Misrata et pour le régime ouest-libyen de Fayez al-Sarraj – en soi un casus belli pour Le Caire qui mène une guerre interne totale contre les partisans de l’ancien Président frériste déchu et défunt, Mohamed Morsi –, la défense par la Turquie du régime de Tripoli a une dimension bien plus concrète et géoénergétique : le 27 novembre 2019, Ankara et Tripoli ont signé un accord turco-libyen de (re)délimitation des eaux de mer Méditerranée orientale qui attribue illégalement près de 40 % de cette mer à la Turquie, au détriment des ZEE de la Grèce, de la république de Chypre, et de l’Égypte (voir carte n o 7). Face à l’activisme turc grandissant en Méditerranée orientale, Nicosie, Athènes et Le Caire tentent de constituer un front commun, tandis que la France, très isolée au sein des pays de l’UE et de l’Otan, y a renforcé momentanément sa présence militaire mi-août 2020 avec le déploiement de deux chasseurs Rafale en Crète et de deux navires de guerre (frégate La Fayette et porte-hélicoptères Tonnerre, en route vers Beyrouth), en soutien à la Grèce et à Chypre, qui ont des accords de défense avec Paris. Ankara et Le Caire s’opposent également autour du territoire palestinien de Gaza (contrôlé par le groupe frère musulman terroriste Hamas), dont la mer alentour dispose aussi d’une importante réserve de gaz. La Turquie y soutient opportunément ce mouvement islamiste radical, fortement combattu en revanche par l’Égypte, qui considère Gaza comme une chasse gardée, tout comme le considère la Turquie d’Erdoğan, ennemi personnel du président égyptien al-Sissi... Tout est lié, et les velléités propalestiniennes et antisionistes du néosultan Erdoğan à Gaza, présentées comme une « défense des musulmans opprimés », ne sont pas étrangères aux ambitions à la fois néo-impériales ottomanistes du reis turc et aux appétits géoéconomiques d’Ankara... De l’Asie centrale au Golfe arabo-persique On peut également citer l’exemple de la mer d’Aral, située en Asie centrale, plus précisément entre le Kazakhstan et l’Ouzbékistan, qui a bien failli disparaître durant l’ère soviétique. Motivé par la culture du coton destinée à l’industrie textile, le détournement, par les pays riverains, des fleuves Amou-Daria et Syr-Daria – qui alimentent normalement la mer d’Aral – a entraîné une privation par cette dernière de ses sources vitales. Au Yémen, les enjeux autour de l’eau sont dramatiques et la situation est empirée par le conflit qui oppose, au niveau régional, l’Iran à l’Arabie saoudite, puis, au niveau local, les forces chiites séparatistes houthies au pouvoir sunnite élu – sans oublier les groupes djihadistes liés à Aqpa (al-Qaida au Yémen) et Daesh. Différentes forces combattantes terroristes et criminelles utilisent en fait une grande partie des ressources du pays en eau pour produire une drogue, « le qat », qui consommerait entre 40 et 50 % de l’eau liée à l’agriculture. En conséquence de la guerre civile endémique et de cette narco-industrie, les nappes phréatiques sont extrêmement polluées, ce qui entraîne un grave manque d’eau potable : sur les 24 millions d’habitants au Yémen, 13 millions n’y ont pas accès pas plus qu’à un assainissement correct de l’eau, maintes maladies se répandent ainsi, de sorte que chaque année, 3 000 personnes meurent de diarrhée et de famine, ceci dans la quasi-indifférence générale des politiques et médias occidentaux qui sont les obligés des monarchies islamistes sunnites du Golfe et dont le sort des civils chiites accusés de connivence avec l’Iran ne suscite pas outre mesure la compassion... De gros contentieux sont également observés autour de la répartition des débits du Nil. Ce dernier, avant d’alimenter l’Égypte et le Soudan, traverse et irrigue une dizaine de pays (Soudan du Sud, Érythrée, Éthiopie, Kenya, Ouganda, République démocratique du Congo, et même Rwanda, Burundi et Tanzanie). Et la plupart d’entre eux sont soumis, comme l’Égypte, à un rude climat et à une démographie explosive, par conséquent à une augmentation exponentielle des besoins en eau. Le barrage d’Assouan a ainsi provoqué un grave litige ainsi que des tensions croissantes entre l’Égypte et le Soudan, notamment à propos de la répartition de l’eau, car il a en effet conduit à la création du lac Nasser, situé en grande majorité en Égypte avec une petite partie au Soudan (500 km de long dont 150 au Soudan). La majeure partie de l’eau est donc à disposition et sous contrôle de l’Égypte. Quant à l’Éthiopie, son contentieux fluvial avec l’Égypte risque de façon récurrente de déboucher sur une guerre : la goutte qui a fait déborder le vase a été, en 2011 (pendant le printemps arabe égyptien), la construction d’un énorme barrage hydroélectrique nommé « barrage de la Renaissance » sur sa branche du Nil, probablement le plus grand d’Afrique et qui devait devenir opérationnel en 2022. Pour l’Égypte, ce projet a comme conséquence inacceptable de provoquer la baisse de son propre débit et donc de lui faire perdre des ressources en eau pendant la durée du remplissage du réservoir du barrage, ce qui ne peut être en fin de compte que néfaste pour son agriculture. Par ailleurs, l’Éthiopie refuse toute implication de l’Égypte dans le chantier. Le ton est de nouveau monté en 2019, lorsque le Premier ministre éthiopien, Abiy Ahmed, a déclaré, lors d’une séance de questions-réponses au Parlement : « Aucune force ne pourrait empêcher l’Éthiopie de construire le barrage... Un quart de la population est pauvre et jeune, donc nous pourrions en mobiliser des millions s’il le faut 38 . » Le président égyptien Abdel Fattah al- Sissi a rétorqué aux Nations unies : « l’Égypte ne laissera jamais Addis-Abeba imposer une situation de fait », et il a même menacé l’Éthiopie d’une réplique militaire... Plus récemment, en mai 2021, l’Égypte a reçu le soutien inconditionnel du Soudan pour faire face à l’Éthiopie au cas où cette dernière ne mettrait pas un terme au remplissage du grand barrage de la Renaissance après l’expiration de l’ultimatum égyptien (juin 2021). Si l’Éthiopie persiste, une guerre ouverte peut être déclenchée par l’Égypte, pour qui la privation d’une partie du débit du Nil est une question existentielle. Les conséquences humanitaires et géopolitiques pour toute l’Afrique de l’Est et du Nord, et même au niveau mondial, seraient dramatiques en raison des interdépendances entre les risques stratégiques, migratoires, énergétiques, terroristes et de la centralité du Nil, du canal de Suez, de la mer Rouge et du détroit de Bab el-Mandeb dans le commerce mondial et les approvisionnements énergétiques. La Chine à la conquête de la puissance maritime et des ressources subaquatiques Les guerres de l’eau ne se limitent pas, loin s’en faut, à la nécessité vitale de l’approvisionnement aquatique pour survivre, se nourrir, se laver, ou pour entretenir l’agriculture et l’industrie, car les océans et les mers regorgent de métaux précieux et de réserves d’hydrocarbures. Le spectaculaire développement économique de la Chine ces dernières années l’a poussé à développer sa puissance diplomatique et bien évidemment militaire dans le monde et plus particulièrement en mer de Chine du Sud, comme déjà évoqué au début de cet ouvrage. Cette zone est très stratégique pour la Chine, comme pour d’autres pays, car un tiers des transports maritimes mondiaux transite par la mer de Chine méridionale. La nation qui aura la mainmise sur cette zone contrôlera donc l’une des routes commerciales les plus importantes. Ceci est fondamental pour l’objectif de la Chine (parallèlement aux routes de la soie) de disposer de toutes les ressources que ces eaux recèlent. La mer de Chine abriterait en effet de réserves d’hydrocarbures équivalentes à 5 380 milliards de mètres cubes de gaz et 11 milliards de barils de pétrole 39 . Toute la zone est par conséquent devenue un théâtre de rivalité, principalement entre, d’une part, les États-Unis et leurs alliés du Sud-Est asiatique et, de l’autre, le pouvoir chinois qui y voit une zone stratégique qui lui appartiendrait de droit : l’empire du Milieu y revendique 90 % des eaux potentiellement riches en hydrocarbures et traversées par des voies maritimes de première importance, et Washington y perçoit un danger pour ses alliés dans la région ainsi qu’une menace directe contre sa flotte navale présente. La Chine y a donc déployé ses troupes, elle y patrouille et y réalise régulièrement des exercices militaires croissants en vue d’intimider ses rivaux. Sa stratégie consiste à s’approprier progressivement des îlots, archipels ou espaces maritimes stratégiques afin d’asseoir ses revendications territoriales. Le gouvernement de Pékin a réussi depuis quelques années à s’y implanter physiquement avec la construction d’îles artificielles appelées la « grande muraille de sable 40 ». Dans l’archipel des Spratleys, la Chine a ainsi construit 7 îles artificielles abritant des canons antiaériens, des missiles et des drones et capables d’accueillir 24 avions de chasse par île, soit 72 avions. Ceci semble assez éloigné de l’usage civil que Pékin affiche pour ces îles... Dans les Paracels, la Chine a également construit, en 2014, une base avec une piste d’atterrissage et un port, autre pierre d’achoppement majeure avec le Viêtnam, notamment 41 ... En fait, le gouvernement chinois a profité de la pandémie mondiale et de l’attention généralisée des États-Unis et autres pays sur le virus pour renforcer ses positions en mer de Chine du Sud. Le 3 mars 2020, un bâtiment des garde-côtes chinois a ainsi éperonné et coulé un navire de pêcheurs vietnamien dans le secteur des îles Paracels. Une semaine plus tard, le porte-avions chinois Liaoning a traversé deux fois le détroit de Miyako, situé dans ZEE du Japon. Le pouvoir de Pékin a également installé dans la même période deux centres de recherche dans les îles Spratleys (voir carte n o 6). L’édification d’îles artificielles a été clairement une stratégie payante pour la Chine qui subvertit ce qu’on appelle le « droit de la mer » en revendiquant une souveraineté sur ce qu’elle considère comme étant sa mer territoriale, soit 12 milles et une ZEE s’étendant jusqu’à 200 milles autour de chaque récif aménagé. Ceci donne à Pékin un libre accès aux ressources halieutiques et à l’exploitation du sol et du sous-sol. Dans le cadre d’une tension ascendante, début août 2020, les États-Unis et la Chine ont successivement effectué des exercices militaires en tirant plusieurs missiles balistiques. Le risque à l’avenir pourrait même être une escalade militaire entre les deux superpuissances, voire un conflit armé qui, en plus d’impliquer la Chine et les États-Unis, associerait également leurs alliés respectifs, notamment le Japon, l’Indonésie, les Philippines, Taiwan, la Thaïlande ou le Viêtnam. 1. En anglais, IPCC : Intergovernmental Panel on Climate Change. 2. Quarante gaz à effet de serre sont recensés par le Giec : vapeur d’eau (H 2 O) ; dioxyde de carbone (CO 2 ) ; méthane (CH 4 ) ; ozone (O 3 ) ; protoxyde d’azote (N 2 O) ; hydrofluorocarbure (HFC) ; perfluorocarbures (PFC) ; hexafluorure de soufre (SF 6 ). 3. Morgan Freeman (1923-2020), scientifique ayant reçu vingt et un titres de docteur honoris causa, ex-membre de la Royal Society et de l’Académie nationale des sciences américaine, critique l’alarmisme sur le climat, lié selon lui à un manque de validité des modèles informatiques utilisés et fondé sur des prévisions non vérifiées. 4. Trois cents millions de tonnes de CO 2 émises ; 18,6 millions d’hectares brûlés (15 fois l’Île-de-France), 5 900 bâtiments détruits, 100 000 évacués, 500 morts, 4 000 hospitalisés. Trois milliards d’animaux tués/impactés (rapport WWF de juillet 2020). 5. Revenir dans l’accord suppose de réduire de 26 à 28 % les émissions de GES du pays d’ici à 2025. Un défi pour ce deuxième plus gros émetteur de GES responsable de 17 % de la pollution mondiale (après la Chine, 20 %). 6. Il souhaitait lancer les travaux de rénovation énergétique pour des millions de bâtiments afin d’épargner des dizaines de millions de barils de pétrole, créant des millions d’emplois, améliorant la santé des citoyens et nettoyant l’environnement. 7. Le terme « éco-civilisation » (« EC ») vient d’ailleurs d’être inscrit dans la Constitution chinoise dans le cadre d’une révision constitutionnelle approuvée, en mars 2018, par l’Assemblée populaire nationale. 8. « Les 100 jours de Joe Biden : “De quelle ampleur sera la politique de transformation énergétique ?” », Le Monde, 26 mars 2021. 9. Elle représentait alors 9,4 % du total de la consommation mondiale. En 2018, elle est passée à 19,3 %. 10. Le coût du solaire photovoltaïque a baissé de 50 % entre 2020 et 2015 et une autre diminution de 60 % est à prévoir d’ici 2025, d’après l’Irena – Agence internationale de l’énergie renouvelable. 11. Rapport du CDP (Carbon Disclosure Project) : Climate Change Report. Major Risk or Rosy Opportunity, 2019. 12. Source : Statistiques de la compagnie parapétrolière Baker Hughes (Houston). 13. Annonce du 10 décembre 2019, source : Agence américaine d’information sur l’énergie (EIA). 14. Dans les années 2000, l’UE et les EU appuyaient le projet de gazoduc Nabucco devant alimenter l’Europe avec du gaz de la mer Caspienne et d’Asie centrale afin de réduire la dépendance de l’UE vis-à-vis de la Russie. 15. Le groupe suisse Allseas, impliqué dans les travaux, a ainsi suspendu son activité par crainte de sanctions, voire d’une saisie des avoirs américains de la compagnie. 16. Voir Alexandre Del Valle, Les Vrais Ennemis de l’Occident, op. cit. 17. Construction des nouveaux réacteurs AP1000 de Vogtle en 2013, et Watts Bar, dans le Tennessee, en 2016. 18. Fukushima (2011), vingt-cinq ans après celle de Tchernobyl (1986) et trente-deux ans après l’accident de Three Miles Island aux EU (1979). 19. « Premier dragon » en mandarin. 20. Daniele La Porta Arrobas et Kirsten Lori Hund (coll.), The Growing Role of Minerals and Metals for a Low Carbon Future, World Bank Group, juin 2017. 21. Guillaume Pitron, La Guerre des métaux rares. La face cachée de la transition énergétique et numérique, Les Liens qui libèrent, 10 janvier 2018. 22. Programme stratégique chinois visant à faire de la Chine un leader industriel haut de gamme en développement les technologies axées sur l’innovation tout en réduisant certaines dépendances vis-à-vis des puissances étrangères. 23. Louis Torres Tailfer, « Les terres rares, un enjeu géopolitique sino-américain », La Tribune, 25 août 2019. 24. En 2018, il y avait 10 mines de fer, 20 mines de cuivre (dont certaines produisaient également du cobalt) et 14 mines d’or exploitées et totalement ou partiellement contrôlées par des investisseurs chinois. 25. Magnus Ericsson, Olof Löfet Anton Löf, « Chinese Control over African and Global Mining–Past, Present and Future », Mineral Economics, vol. 33, 22 juillet 2020. 26. Henri-Louis Vedie, « Les investissements miniers chinois en Afrique », OCP Policy Center, avril 2017. 27. Après une demande d’aide financière chinoise, le Sri Lanka n’a pas pu rembourser ses dettes envers la Chine et a dû céder le port d’Hambantota aux Chinois pour quatre-vingt-dix-neuf ans avec 6 000 ha de terrains autour. 28. Guillaume Pitron, La Guerre des métaux rares, op. cit. 29. Données des Nations unies, voir site officiel : www.un.org/fr. 30. IDMC, Rapport mondial sur le déplacement interne 2019, PDF téléchargeable sur le site de l’IDMC : www.internal-displacement.org. 31. Le Pnud, programme et fonds de l’ONU, est l’un des principaux organismes multilatéraux de développement contribuant à éradiquer la pauvreté et réduire les inégalités et l’exclusion. 32. Et les deux protocoles d’accords internationaux de l’ONU qui les interdisent n’ont pas été ratifiés par nombre de pays et n’ont aucune valeur dissuasive pour les pays souverains qui préfèrent rectifier des délimitations de ZEE par la force que de se soumettre à une quelconque juridiction ou entente internationale de toute façon non contraignante. 33. Pascal Le Pautremat, Géopolitique de l’eau, L’Esprit du temps, 2020. 34. Le territoire turc reçoit du gaz iranien, azerbaïdjanais, turkmène et russe, et la Turquie couvre 60 % de sa consommation par du gaz russe. Ankara a tenté de persuader Tel-Aviv de faire passer le gaz israélien et chypriote par la Turquie, en échange d’eau turque passant par Chypre à destination d’Israël. 35. Le gazoduc pourra acheminer chaque année 31,5 milliards de mètres cubes de gaz. 36. Les 37 % du nord de Chypre (« prétendue République turque du nord de Chypre », nom que l’ONU emploie officiellement) n’ont en effet jamais été reconnus par l’ONU, le Conseil de l’Europe et l’UE. 37. « L’ambassadeur de Turquie s’explique face aux sénateurs : une audition sous haute tension », 1 er juillet 2020, site du Sénat français : www.publicsenat.fr/article/politique/l-ambassadeur-de-turquie-s-explique-face-aux-senateurs-une-audition-sous-haute. 38. « Tension élevée entre l’Égypte et l’Éthiopie autour du projet de méga-barrage sur le Nil », Le Monde, 24 octobre 2019. 39. Hortense Goulard, « Les tensions sino-américaines en mer de Chine en cinq questions », Les Échos, 1 er septembre 2020. 40. Patrick Saint-Paul, « Pékin construit une “grande muraille de sable” en Mer de Chine », Le Figaro, 13 avril 2015. 41. Julien Licourt, « La Chine construit des îles artificielles pour revendiquer des zones maritimes », Le Figaro, 10 février 2015. PARTIE III NOUVEAUX DÉFIS CHAPITRE XI Les défis démographiques « L’inflation démographique a pour corollaire la guerre totale. » Gaston Bouthoul « Si fondamentaux sont les problèmes de population qu’ils prennent de terribles revanches sur ceux qui les ignorent. » Alfred Sauvy 1/ L’explosion démographique. De quelques chiffres édifiants D’après les estimations les plus fréquemment évoquées, la population mondiale s’élevait à 300 millions d’êtres au début de l’ère chrétienne, 700 millions en 1750, 1,4 milliard en 1850, 2 milliards en 1930, 5 milliards en 1990, 6 milliards en 2000, 7 milliards en 2010, et le cap des 7,55 milliards d’âmes a été franchi en 2019. La population devrait augmenter de quelque 90 millions de personnes par an ou, plus symboliquement encore, de quelque 250 000 individus par jour. Cet essor démographique totalement hors contrôle et exponentiel est sans précédent. Rappelons que cette progression est restée relativement lente jusqu’au milieu du XV e siècle et à la grande Révolution industrielle qu’a connue l’Europe de l’Ouest. Ensuite, les choses se sont accélérées sous l’effet de la colonisation puis du développement sous influence occidentale qui a apporté d’importants progrès médicaux dont les effets immédiats ont été de diminuer la mortalité infantile, sans toutefois que l’évolution des mœurs ne suive et n’implique un contrôle des naissances, principalement en terres africaine et musulmane où cette politique s’est toujours heurtée aux mentalités fortement natalistes. De ce fait, la mondialisation et les échanges entre le Nord et le Sud, à la suite de la colonisation, n’ont fait qu’accentuer l’énorme décalage, potentiellement explosif, entre, d’une part, une dénatalité quasi suicidaire de la civilisation occidentale – surtout de la vieille Europe, dévitalisée par son hédonisme inhérent à la « mcworldisation » et son individualisme anomique – et, de l’autre, une surnatalité du monde islamique, africain (sahelo-saharien) et, dans une certaine mesure, indien. Cette surnatalité hors contrôle alimente inévitablement à son tour des migrations massives de peuplement, elles-mêmes favorisées par les instances mondiales onusiennes, européennes et par la doxa droits-de-l’hommiste des élites occidentales mondialisées. Le contrôle des naissances n’a donc pas suivi la baisse desdits taux de mortalité et l’accroissement naturel a amorcé une expansion de plus en plus spectaculaire. Ceci dit, depuis un tiers de siècle, les spécialistes de la démographie – science ô combien complexe et parfois paradoxale – constatent que l’accroissement annuel s’est également en partie ralenti : 10 % en 1970, 9 % en 1980, 8 % en 1995, 7 % en 2000, 6,5 % en 2010 et 6 % en 2015 ; à moyen terme, la population du globe (hypothèse basse, voir infra) pourrait se stabiliser. Cependant, le phénomène de déclin relatif est à mettre exclusivement au crédit (ou au débit, si l’on préfère) des pays développés. Certaines nations « en voie de développement » ont vu récemment (voir supra) leur taux de fécondité diminuer légèrement mais cette transition démographique reste encore modeste, eu égard à la chute brutale de leurs taux de mortalité, et elle concerne bien plus l’Asie et l’Amérique latine que l’Afrique et le monde islamique... D’une manière générale, l’évolution démographique résulte arithmétiquement du solde entre accroissement naturel et migrations. Les chiffres liés à ces dernières (voir infra) incitent à la prudence quant aux appréciations des projections de la population mondiale proposées par les experts. Cependant, au-delà d’imprécisions incontournables, les données proposées notamment par l’ONU sont tout à fait parlantes 1 . Explosion de la population mondiale D’après les prévisions des statistiques démographiques des Nations unies 2 comme d’après celles de l’Institut national d’études démographiques 3 , la population mondiale devrait augmenter de 2 milliards de personnes au cours des trente prochaines années, passant de 7,7 milliards actuellement à 8,5 milliards en 2040, à 9,7 milliards entre 2050 et 2075, et elle pourrait atteindre un nombre proche de 11,2 milliards d’individus vers l’an 2100. Au cours de ce siècle, avec 2 milliards de personnes supplémentaires sur la planète en 40 ans, le monde sera confronté aux effets de la plus grande explosion démographique de l’histoire de l’humanité. Des milliards d’êtres humains dans le monde feront de plus en plus face à la soif, à la faim, et aux conflits qui en découlent. Le ministre indien de la Santé, Ghulam Nabi Azad, déclarait de ce fait en 2011 qu’une population mondiale de 7 milliards d’êtres humains « ne doit pas nous réjouir mais nous inquiéter ». Il est clair que pour nombre d’analystes, si nous ne parvenons pas à désamorcer la bombe démographique, nous ferons face à un avenir de pauvreté croissante, de pénuries alimentaires, de conflits et de dégradation de l’environnement. Une véritable bombe à retardement. Plus de bouches à nourrir et les changements alimentaires impliqueront : un doublement de la production agricole en quatre décennies, une augmentation de 30 % de la consommation d’eau d’ici 2030, et au milieu du siècle, des logements urbains pour 3 autres milliards de personnes. À cela s’ajoute le besoin d’énergie pour soutenir la croissance économique dans les pays post-industriels, industriels et nouvellement industrialisés, en tenant compte d’une demande qui doublera d’ici 2050. Part dans la population mondiale (%) et par zone géographique 19501970199020102017 Europe21,717,813,510,69,8 Asie55,357,760,460,259,6 Amériques13,514,113,713,613,5 Afrique9,09,911,915,116,6 Océanie0,50,50,50,50,5 Le déséquilibre démographique international Face à l’hiver démographique européen, le monde doit faire face à l’explosion démographique africaine. Pas de juste milieu. D’un point de vue géopolitique, la démographie peut avoir des effets déstabilisateurs ou engendrer des changements de rapport de force entre les États. La taille démographique peut donc avoir un impact direct sur le poids politique des États et parfois en termes de violences et même de guerre. « La grande majorité des guerres civiles depuis les années 1970 sont intervenues dans les pays connaissant des croissances démographiques importantes. Les cas de l’Irlande du Nord, du Sri Lanka, du Liban, de l’Algérie, de la Tchétchénie, du Kosovo, du Rwanda, du Congo, pour citer quelques exemples. Plusieurs des révoltes arabes (Tunisie, Yémen, Maroc, Libye, Syrie, Égypte) sont intervenues dans des pays connaissant la même situation 4 . » Dans les années 1970, la forte croissance de la population musulmane au Liban avait conduit l’élite maronite à adopter des réactions défensives, tandis que l’afflux massif de réfugiés palestiniens (à la surnatalité islamique) contribua à la déstabilisation du pays. Par ailleurs, lorsqu’une très grande partie de la population est jeune, surtout en pays pauvres, cela crée une opportunité pour des groupes terroristes, des milices ou des organisations criminelles qui disposent ainsi d’une importante ressource humaine facile à soudoyer et susceptible d’accroître leurs activités. Les disparités de l’accroissement naturel sont, par définition, le reflet de celles que l’on peut noter au chapitre des taux de natalité et à celui des taux de mortalité. Là encore, les chiffres publiés par l’ONU s’avèrent tout à fait édifiants. Les taux de natalité varient en effet (chiffres de 2018) de 49,6 ‰ au Niger à 8,10 ‰ au Japon, donc d’un rapport de quasiment 1 à 6 ! La Iiste des dix premiers États du globe souligne de manière criante le rôle du natalisme et de ses causes sociétales dans des pays pauvres où, c’est le moins que l’on puisse dire, la contraception est loin d’être entrée dans les mœurs. Ainsi, plus de la moitié de la croissance démographique dans le monde d’ici à 2050 aura lieu sur le continent africain avec la population d’Afrique subsaharienne, qui devrait doubler d’ici là. On y constate ainsi des taux de natalité par femme extrêmement élevés, le record étant détenu par le Niger, avec 7,4 entre 2010 et 2015, suivi par la Somalie (6,6), la RDC (6,4), l’Angola et le Burundi (6,0), l’Ouganda (5,9) et le Nigeria (5,7). L’Afrique devrait capter 52 % de la croissance démographique mondiale d’ici 2050 (soit 1,05 milliard d’habitants supplémentaires 5 ). L’Inde devrait dépasser la Chine et devenir le pays le plus peuplé du monde en 2022. Le Nigeria devrait voir sa population doubler par rapport à aujourd’hui pour atteindre environ 410 millions d’habitants en 2050 et devenir le 3 e pays le plus peuplé du monde 6 . Cela créera une pression considérable pour l’augmentation de la production alimentaire nationale, ainsi que pour l’eau et pour les sources d’énergie. Combinées aux tensions sociales et politiques résultant d’une urbanisation incontrôlée et d’une expansion dramatique des bidonvilles de banlieue, cela pourrait donner lieu à des conflits internes et frontaliers, déstabilisant de ce fait les routes du commerce international et conduisant à des migrations massives de zones de conflits vers des régions plus stables, comme l’Europe, avec les problèmes socio-économiques et civilisationnels que l’on imagine. L’hiver démographique des Occidentaux et d’une partie de l’Asie ? « L’hiver démographique » est un terme certes fort, mais loin d’être irréaliste. Il a été introduit par Michel Schooyans, professeur à l’Université catholique de Louvain, pour décrire le vieillissement ou l’augmentation de l’âge moyen de la population, principalement en Europe et au Japon. Michel Rocard, à l’issue de la conférence dite « famille », du 20 janvier 1989, a quant à lui déclaré : « La plupart des États d’Europe occidentale sont prédisposés à se suicider, un suicide démographique 7 . » On sait qu’un pays doit théoriquement maintenir un taux de natalité de 2,1 enfants par femme pour remplacer sa population actuelle. Cependant, en Europe, le taux de natalité est en moyenne de 1,3 et l’on estime que d’ici 2030, l’Europe aura un déficit de 20 millions d’habitants. Dans le même temps, la Russie devrait perdre un tiers de sa population actuelle d’ici 2050. De nombreux pays n’ont pas assez de jeunes pour renouveler leur population et ainsi faire face au fardeau économique du vieillissement. En Italie par exemple, de 2008 à 2019, les naissances sont passées de 576 000 à 420 084 8 par an. Depuis 2007, le bilan naturel est négatif : la moitié des femmes en âge de procréer n’a même pas d’enfants. Certaines des régions les plus riches de la planète – notamment le Japon, la Corée, l’Espagne, l’Italie et une grande partie de l’Europe de l’Est – perdent des habitants chaque année. « Nous sommes un pays mourant », déclarait ainsi en 2015 Beatrice Lorenzin, ministre italienne de la Santé. Les États européens, qui combinent à la fois la faiblesse quantitative de tels flux et un comportement démographique national malthusien, ont ainsi contribué à l’apparition concrète d’une quasi-« révolution » en se dotant désormais du statut de pays à « décroissance démographique absolue » : il s’agit notamment de l’Ukraine, de la Hongrie, de la Roumanie, ( – 0,4 %), de la Croatie, de la Biélorussie ( – 0,2 %), de la Lettonie, de la Serbie et de la Bulgarie ( – 0,1 %), toutes anciennes démocraties populaires, auxquelles il faut ajouter, mais ce n’est plus guère une surprise, l’Allemagne et le Japon ( – 0,2 %). Ce phénomène – gravissime à moyen et long termes – ne semble pas préoccuper outre mesure les élites dirigeantes occidentales, excepté quelques populistes honnis, car elles comptent depuis des décennies sur l’immigration de peuplement de masse – malgré les problèmes socioculturels et sécuritaires associés – plutôt que d’adopter des politiques natalistes, considérées comme réactionnaires ou attentatoires aux acquis des femmes et des individus, cela alors même que tous les experts savent que l’immigration ne règle pas le problème du vieillissement, mais prive le Sud de ses élites, cadres, et ouvriers qualifiés, ainsi que nous le verrons plus bas. Russie, trop grande trop vide... La Russie est de loin le plus grand pays du monde, mais sa population est en déclin potentiel, à peine freinée par la politique démographique très généreuse mise en œuvre il y a dix ans et par une forte immigration issue des anciennes républiques soviétiques. Avec une superficie de dix-sept millions de kilomètres carrés, la Russie couvre 11,4 % des terres émergées de la planète, mais les 147 millions de personnes qui y habitent représentent moins de 2 % de la population mondiale. Son immensité signifie une abondance de ressources naturelles, mais la population clairsemée et inégale est aussi son talon d’Achille géopolitique, aggravée par le choc démographique causé par la chute du régime soviétique et par le détachement des nouvelles républiques de la Baltique, de l’Europe de l’Est et de l’Asie. Si l’on examine les indicateurs démographiques de la Russie, de 1950 à aujourd’hui, on observe que la population est passée de 103 millions en 1950 à 148 au début des années 1990, ralentissant progressivement ; elle est ensuite passée à 143 millions (avec une reprise ultérieure jusqu’à 147 millions aujourd’hui, notamment due à l’arrivée de migrants d’Asie centrale et de l’annexion de la Crimée en 2014). Depuis la chute de l’URSS, la baisse dramatique de la natalité s’est aggravée d’une augmentation de la mortalité due à la crise sociale et sanitaire, partiellement compensée par une immigration nette soutenue. L’indicateur conjoncturel de fécondité (ICF) russe, qui est à peine de 1,2 ou 1,3 enfant par femme au tournant du siècle – soit bien inférieur au minimum vital de 2,1 –, a été considéré par le gouvernement de Vladimir Poutine depuis les années 2000 comme un des pires dangers pour le pays sur les moyen et long termes. Le Président russe est conscient qu’une nation dotée du plus grand territoire au monde ne pourra pas longtemps le sécuriser et le contrôler sans un repeuplement nataliste face à des empires rivaux et des voisins revanchards comme la Chine ou les puissances islamiques. Il déclare ainsi régulièrement dans des discours : « un pays aussi vaste [que la Russie] devrait avoir au moins 500 millions d’habitants », et il a tenté avec des succès mitigés, depuis 2007, de lancer une politique nataliste. Celle-ci s’est traduite par une reprise (avec un pic de 1,7 en 2015) que beaucoup considèrent toutefois comme transitoire. Et l’immigration en provenance de Chine, vue comme une menace à long terme pour la Sibérie russe – jadis chinoise – encore modeste pour le moment, se fait sentir sur un territoire qui a besoin de main-d’œuvre, de technologie, de populations et d’investissements. La démographie, un facteur critique pour l’alimentation La préoccupation primordiale concernant l’avenir de l’alimentation et de l’agriculture est de savoir si les systèmes mondiaux seront en mesure de nourrir durablement l’humanité jusqu’à 2050 et au-delà. En effet, nourrir toute la population en 2050 représente un des défis majeurs futurs sachant que, selon l’OMS, 690 millions de personnes ont souffert de la faim en 2019 9 . Poussée par une mondialisation excessive, la demande mondiale de produits agricoles continue de croître sous l’effet des changements alimentaires, de la croissance démographique, de la hausse des revenus et de l’urbanisation accrue. L’amélioration des conditions de vie entraîne une consommation supplémentaire, voire une surconsommation et du gaspillage 10 , ce qui demande une hausse de la production, provoquant des dégâts collatéraux considérables, comme la dégradation des terres, la déforestation, la surexploitation des eaux souterraines, les émissions de gaz à effet de serre, l’utilisation excessive de pesticides ayant un impact non négligeable sur la population (comme la culture du soja au Brésil ou en Argentine), la perte de la biodiversité et la pollution des masses d’eau. Non seulement l’agriculture affecte l’environnement et contribue aux changements climatiques, mais c’est aussi l’un des secteurs les plus touchés... Comme expliqué par l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO 11 ), la croissance de la production agricole est freinée par la rareté accrue et la diminution de la qualité des terres et des ressources en eau, car évidemment, ce qui peut être produit dépendra de la disponibilité et de la productivité des ressources, et notamment de la terre et de l’eau. Ces ressources sont déjà sous pression et, bien que les progrès techniques aient permis d’accroître la productivité, ou du moins la croissance des rendements des cultures, ralentit. De plus, la perte et le gaspillage exercent une pression inutile sur les ressources en terres, en eau et en énergie le long de la chaîne de valeur alimentaire. Taux de natalité en naissance pour 1 000 habitants 12 Pays (plus haut)TauxPays (plus bas)Taux Niger46,1Monaco5,9 Tchad42,2Corée du Sud6,4 Somalie41,8Porto Rico6,7 Mali41,5Italie7,3 Congo (RDC)41,2Japon7,4 Angola40,7Espagne7,9 Burundi39,0Grèce8,1 Gambie38,5Bosnie-Herzégovine8,1 Ouganda38,1Portugal8,5 Burkina Faso et Nigeria37,9Finlande8,6 À l’exception de l’Afghanistan (et de son contexte géopolitique particulièrement spécifique), le « Top ten » des pays à très fort taux de natalité est monopolisé par l’Afrique subsaharienne. A contrario, la liste des dix derniers États du globe révèle l’omniprésence du monde occidental d’économie libérale et des anciennes démocraties populaires. On peut évoquer trois catégories de pays concernant la situation démographique : Les économies postindustrielles matures, à l’opposé des pays africains étudiés plus haut et de l’Inde, sont largement caractérisées par des populations stables ou en déclin. Par exemple, le nombre d’habitants de l’Union européenne devrait diminuer de 20 % d’ici 2100. Ce pourcentage pourrait être revu à la baisse si l’immigration augmente ou si l’on prend en compte la présence d’immigrés non naturalisés ou clandestins installés durablement et prévus dans l’UE d’ici à 2100. La proportion des 60 ans ou plus atteint aujourd’hui 13 %. Les populations d’une cinquantaine de pays vont décliner dans les années qui viennent, notamment en Europe orientale et en Asie de l’Est 13 . La réduction conséquente des jeunes générations aura diverses implications sur des aspects tels que l’assistance sociale, les soins de santé et la composition de la main-d’œuvre. Un cauchemar pour les systèmes de retraite et plus généralement pour le dynamisme économique et la croissance, qui est ralentie ou en récession si le taux est trop faible. Les économies en développement au dernier stade, actuellement caractérisées par des niveaux élevés d’industrialisation, connaîtront un ralentissement de la croissance démographique parallèlement à la croissance de la richesse nationale. Par exemple, en Asie, où vit déjà la moitié de la population mondiale, la croissance démographique n’augmentera que de 25 %, pour atteindre son apogée en 2065, avant de reculer de la même manière que certaines économies postindustrielles. Bien que modeste, la croissance démographique continue de cette région au cours des cinq prochaines décennies, associée aux niveaux élevés de revenu personnel et de croissance de la richesse, entraînera probablement des tensions géopolitiques entre certains pays sur les ressources naturelles, telles que les sources d’eau et les matières premières communes d’abord pour l’industrie. Les pays récemment en développement et les économies les moins avancées sur le point d’entrer dans la phase d’industrialisation. Une croissance démographique plus rapide, responsable de la majeure partie de l’augmentation mondiale jusqu’en 2075, sera la caractéristique clé de ces nations. L’Afrique est la principale région concernée, de nombreux pays de ce continent pouvant doubler ou tripler leur population d’ici 2050. Relativisons les chiffres catastrophiques Inutile de préciser que ces données (surtout les dernières) doivent être appréhendées avec beaucoup de prudence. « Le pire n’est jamais certain », et les défis attendus pourraient être relevés avec des techniques déjà connues et des solutions durables : l’application de méthodes d’ingénierie telles que la biotechnologie ; la mécanisation et l’automatisation accrues ; la réduction des déchets ; un système de stockage et de distribution amélioré puis une meilleure gestion de l’eau ; des ressources alimentaires suffisantes. De même, la consommation future peut être couverte par des améliorations dans la gestion des eaux souterraines, la collecte et le stockage des eaux pluviales, la réutilisation de l’eau et le dessalement. Par ailleurs, les chiffres alarmistes ne mettent pas en évidence les tendances démographiques régionales importantes et donc les disparités. Démographie et Inégalités Espérance de vie à la naissance (source : Banque mondiale, 2018) Pays Espérance de vie Pays Espérance de vie 1) Hong Kong84,9245) République centrafricaine 52,8 2) Japon84,2244) Lesotho53,7 3) Région de Macao (Chine) 84,1243) Tchad54,0 4) Suisse83,8242) Sierra Leone54,3 5) Espagne83,4241) Nigeria54,3 6) Italie83,3240) Somalie57,1 7) Singapour83,1239) Côte d’Ivoire57,4 8) Liechtenstein83,0238) Soudan du Sud57,6 9) Îles anglo-normandes82,9237) Guinée-Bissau58,0 10) Islande82,9236) Guinée équatoriale58,4 Quatre-vingt-cinq ans pour le Japon, 48 pour la Sierra Leone ou la Centre-Afrique ! Voilà sans doute la plus scandaleuse des inégalités dans le monde contemporain, en dépit des progrès de la médecine et de leur exportation à l’échelle de l’ensemble des pays dits « en voie de développement ». La mondialisation n’est pas la même pour tout le monde... Cette inégalité devant la mort apparaît aussi au plan qualitatif des causes principales de mortalité à l’échelle du globe, tel que le montrent des chiffres de l’OMS de 2015. 1) Maladies infectieuses : 29,7 % dont voies respiratoires 6,8 %, sida : 3,1 %, tuberculose : 2,4 %. 2) Cancers : 13 %. 3) Cardiopathies : 12,8 %. 4) Accidents cardio-vasculaires (AVC) : 10,8 %. 5) Sous-nutrition : 5,9 %. 6) Suicides : 1,6 %. Ce classement masque toutefois des différences flagrantes en changeant d’échelle : dans les pays du Nord, les cardiopathies apparaissent au premier rang (18,2, %) devant les AVC (12,8 %), les cancers (9,1 %), le diabète (4,2 %), les maladies neurologiques (4,1 %) et les accidents de la route (2,3 %). En revanche, pour l’ensemble des États du Sud, ce sont les maladies infectieuses (17,2 %) qui tiennent le haut du pavé, devant les maladies respiratoires stricto sensu (9,2 %), le sida (4,4 %), la tuberculose (3,2 %) ou le paludisme (2,6 %). Ces inégalités face aux causes de mortalité sont de toute évidence directement liées au contexte sociétal et à un encadrement médical plus ou moins dense. Songeons qu’en 2013 (source : OMS), on recensait 1 médecin pour 300 habitants pour l’ensemble des pays développés et 1 pour plus de 20 000 au sein du monde non développé... Dans ce contexte, il n’est guère surprenant que des maladies endémiques comme la fièvre jaune, la lèpre, la bilharziose, le paludisme perdurent, mais que réapparaissent des fléaux que l’on croyait définitivement éradiqués, comme la tuberculose. Au- delà de sa valeur symbolique et, à juste titre, très fortement médiatisée, le sida continue de faire des ravages, en particulier dans la zone intertropicale. Alors que le virus avait été repéré dans un premier temps dans les quartiers gays de San Francisco, cette infection s’est très vite répandue dans le monde. Certes, aujourd’hui, la situation s’est stabilisée au sein des pays « nantis ». En revanche, le fléau n’a pas été éradiqué, loin de là, dans les contrées défavorisées, et particulièrement sur le continent africain. Lors de la première grande conférence mondiale sur le sida, on a appris que sur 40 millions de personnes porteuses du VIH, 28 millions vivaient sur ce continent ! Et, en 2010 encore, d’après le rapport annuel de la Commission ONUSIDA, l’Afrique subsaharienne comptait plus des trois quarts des personnes contaminées. En 2017, la même commission citait le chiffre de 70 % ! Un fléau qui n’est toujours pas combattu de manière responsable ! 2/ Les migrations internationales « Si la démographie dicte le destin de l’histoire, les mouvements de population en sont le moteur. » Samuel Huntington L’évocation des « défis démographiques » ne peut, in fine, faire l’impasse sur un phénomène complémentaire : l’évolution des migrations internationales et leur ampleur récente. La surnatalité dans plusieurs régions du monde ne va cesser de favoriser toujours plus de migrations, dans le cadre d’une mondialisation des échanges et de la doxa sans-frontiériste des États providences occidentaux qui créent ainsi des appels d’air. Cela aura des conséquences majeures sur le volume des populations concentrées dans les villes et posera aussi des gros problèmes de gestion, de contrôle et d’intégration aux pays d’accueil des migrants, sans oublier les pays touchés par une hausse massive des flux de réfugiés de guerre (Liban, Jordanie, Turquie, notamment). Cet essor démographique est un sérieux défi, dont la nécessité d’intégrer ces populations dans le marché du travail et de leur fournir une éducation de qualité et des services de santé dont elles auront besoin pour être productives, mais que la crise et le chômage en Europe rendent de plus en plus difficiles. Les pays d’accueil sont d’ailleurs appelés de façon récurrente par les instances onusiennes et européennes (Pacte mondial sur les migrations des Nations unies – PMM – dit « pacte Marrakech » de décembre 2018 ; dépénalisation des migrations clandestines voulue par l’ONU et l’UE, etc.) à créer les infrastructures nécessaires pour soutenir l’emploi, le logement et la sécurité sociale des immigrés désirés ou non (illégaux, faux et vrais demandeurs d’asile, vrais ou faux mineurs non accompagnés, réfugiés économiques, migrants légaux, etc.). Or cet appel d’air, difficilement supportable pour les pays européens en crise économique et frappés par le chômage, ne peut pas ne pas créer des tensions sociales et politiques que la montée des populismes rend manifestes. Face aux répercussions négatives de la baisse de la natalité, qui frappe surtout l’Occident, le Japon, la Russie et la Chine, certains réclament des politiques publiques natalistes, mais les dirigeants et les élites d’Occident, inhibés par un vrai tabou démographique et culpabilisés par les groupes de pression malthusiens, woke et féministes radicaux, les présentent comme impossibles, inutiles ou inacceptables, en raison de l’obsession connue des totalitaires (notamment nazi-fascistes ou islamistes) de procréer en masse. Pour beaucoup, la solution au problème du déclin démographique serait donc d’importer massivement des populations étrangères pour combler le manque de jeunesse et payer les futures retraites. Cette idée, chère au Premier ministre canadien diversitaire, Justin Trudeau, implique l’acceptation du multiculturalisme, lequel peut poser des problèmes de compatibilité et donc d’antagonismes communautaires dès lors que, par principe, les élites multiculturalistes d’Occident se refusent de conduire une politique d’immigration culturellement compatible. La question de l’islamisation radicale des métropoles industrielles occidentales est à cet égard le révélateur le plus flagrant de cette bombe géocivilisationnelle à retardement. En 2018, les Nations unies estimaient qu’il y avait quelque 260 millions de migrants internationaux à travers le globe, soit 3,5 % de la population mondiale (une augmentation de plus de 40 % depuis le début de ce nouveau siècle). Bien sûr, il y a migrants et migrants, et si les médias font prioritairement allusion aux « réfugiés politiques » (et à leur sort généralement peu enviable), leur poids dans les données statistiques est faible : moins de 20 millions de réfugiés dans le monde, dont 15 millions en situation de guerre (voir supra). Les plus gros contingents d’immigrés concernent en réalité essentiellement les migrants économiques qui alimentent les flux du « sud vers le nord » (près de 120 millions) et du « sud vers le sud », moins souvent évoqués, bien que quantitativement comparables (110 millions). Toutefois, les États providences d’Europe de l’Ouest ont créé un tel appel d’air que nombre d’immigrés extra-européens choisissent le Vieux Continent en raison des droits et avantages accordés par principe aux non-citoyens, même illégaux, et que leurs propres pays d’origine n’offriront jamais, pas plus que les richissimes monarchies islamiques du Golfe. Ces dernières, bien que de même religion que nombre d’immigrés, ne connaissent pas la culpabilisation postcoloniale de l’Europe de l’Ouest et ne se sentent pas solidaires des masses afro-musulmanes, pas plus d’ailleurs que des démocraties non européennes comme le Japon ou la Corée du Sud, ou encore les pays ex-communistes d’Europe orientale. En 2018, la moitié des migrants internationaux à l’échelle mondiale est née en Asie, notamment dans le sous-continent indien, mais c’est l’Afrique qui présente les chiffres les plus élevés, avec 85 % de personnes originaires d’un autre État africain et, tout étant relatif, moins de 15 % pour ceux qui tentent, de manière parfois dramatique, d’atteindre l’Eldorado européen. Encore faut-il aussi distinguer, parmi les migrants économiques, deux grands types de profils : la masse des braceros dépourvus de toute qualification, les déshérités venant, dans un premier temps, se réfugier dans les banlieues de métropoles, puis tentant l’aventure vers les pays riches ; et les personnels qualifiés nourrissant le flux du célèbre « brain drain », un « exode des cerveaux » qui contribue au dynamisme des nations développées du Nord. Cette perte de compétences locales contribue en fait au non-développement des pays quittés par leurs propres forces vives. Cela a été notamment fortement dénoncé par le cardinal guinéen Robert Sarah, en Afrique ou par le dalaï-lama au niveau mondial. En septembre 2018, le prélat tubétain déclarait à Malmö, en Suède, que « l’Europe appartient aux Européens » et qu’à terme il était souhaitable que les réfugiés « retournent chez eux pour reconstruire leur propre pays 14 ». Quant au cardinal Sarah, il fustigeait en novembre 2019 une Europe qui prétendait pouvoir faire face au tsunami migratoire, refusant de voir que le bateau était déjà prêt à couler : « Ceci est irresponsable sur le plan économique : accueillir, ce n’est pas seulement laisser entrer les gens, c’est leur donner du travail, or comment offrir un travail aux nouveaux arrivants, alors qu’en 2020, 16 millions d’Européens sont au chômage ? Si finalement, les migrants obtiennent un travail, ce pourrait être au détriment des Européens eux-mêmes ; ou bien, au prix de conditions de travail déplorables. » Ainsi, cette migration massive pourrait même bien aboutir à l’établissement d’un « nouvel esclavage 15 », conclut-il. En investissant des sommes astronomiques dans l’accueil des migrants, y compris illégaux ou hostiles aux valeurs occidentales pluralistes, l’Europe crée donc un appel d’air, et se donne à voir comme un Eldorado qu’elle n’est plus, au lieu de régler les problèmes de pauvreté et de conflits en Afrique en aidant à son développement. L’idée de « plan Marshall pour l’Afrique 16 », notamment développée par l’expert international Me Jean-Michel Nogueroles, permettrait à sa population de ne pas avoir à émigrer. Tout l’argent dépensé dans les prestations sociales accordées aux migrants, notamment clandestins, en Europe pourrait en effet, s’il était investi dans une optique de développement durable, permettre à de nombreux habitants africains d’avoir, par exemple, accès à l’électricité ou à des services d’hygiène décents. L’autre problème, rarement évoqué, est que les pays d’origine supportent les dépenses considérables liées à l’éducation du futur migrant et n’en tirent aucun bénéfice, au contraire du pays d’accueil. Songeons, par exemple, que deux Prix Nobel américains sur cinq sont nés hors des États-Unis ! Mais si le phénomène du brain drain n’ignore pas les pays membres de l’Union européenne, ces derniers doivent surtout faire face aujourd’hui à l’accélération brutale des flux migratoires, notamment clandestins, en provenance du continent africain, via la mer Méditerranée. Près de 3,5 millions de personnes venues des pays pauvres ont immigré au sein de pays membres de l’UE en 2018, et 2 millions ont quitté l’un de ses États membres. En 2018, selon la Commission européenne, c’est l’Allemagne qui comptait le plus grand nombre de non-nationaux (8,8 millions) devant le Royaume-Uni (5,7), l’Italie (5,2), I’Espagne (4,6) et la France (4,2). « Préparez Venus viendra Mars... » On doit cette formule à Gaston Bouthoul, qui consacra dans son traité majeur un long chapitre aux dimensions démographiques des guerres. Selon lui, les États disposent en permanence de jeunes hommes dont l’économie peut se passer, et lorsque la natalité est incontrôlée et le surplus de jeunes trop important, la situation « démo- économique » devient « une structure explosive », la guerre nécessitant toujours la « consommation » ou le « sacrifice » de ce surplus d’hommes. Ils forment alors ce que Bouthoul appelle une « force perturbatrice 17 » utilisable pour la guerre ou les conquêtes. Certes, le raisonnement de Bouthoul, alors banal, choquerait les esprits politiquement corrects d’aujourd’hui, le thème de l’immigration ayant été accaparé par les mouvements populistes antimigrants et par l’extrême gauche immigrationniste, de sorte qu’aborder en sortant de cette polarisation manichéenne est peu aisé. Il est en effet devenu de bon ton de n’appréhender les phénomènes de l’immigration que de manière positive et victimaire. La polémologie, l’histoire des civilisations et la stratégie sont bien plus neutres et réalistes de ce point de vue, car tout comme la mondialisation, désoccultée dans ce livre, l’immigration peut être analysée comme un phénomène neutre qui peut tout autant apporter des richesses à un État et enrichir une société que créer des difficultés de coexistence et de cohérence civilisationnelle. Selon Bouthoul, la guerre revêtant un caractère pulsionnel de conquête et les pertes qu’elle engendre entraînant la mort d’individus jeunes, les flux de migrants (a fortiori issus de pays anciennement colonisés et travaillés par des visions revanchardes postcoloniales ou et antioccidentales, en l’occurrence islamistes) « peuvent être utilisés à l’expansion brusque, dont les deux formes classiques sont la migration en groupe et l’expédition guerrière 18 ». Certes, Bouthoul précise que la natalité ne constitue pas le facteur unique dans la genèse des guerres et que la guerre est le fruit de déséquilibres socio- économiques, mais il souligne que l’élément démographique s’ajoute de façon déterminante aux autres causes qu’est le rôle des « mentalités », des idéologies, de l’environnement culturel et, bien sûr, de l’intention des dirigeants d’exploiter les « structures explosives ». On songe, bien sûr, à l’islamisme radical. Le lien entre immigration, sécurité, démographie et géopolitique est donc évident. De ce point de vue, la combinaison du fait que l’Union européenne est entrée en phase de dépopulation depuis les années 2010 (sa population n’augmente que du fait de l’immigration extra-européenne) et que l’immigration familiale, illégale et d’asile est devenue difficilement contrôlable, aura des conséquences sociopolitiques et civilisationnelles sur les pays d’Europe les plus concernés. L’« Europe élargie » (donc en incluant les ex-républiques soviétiques hors Asie centrale) est dans le monde le seul ensemble géocivilisationnel qui va décliner d’ici à 2030-2040. À ce double phénomène d’immigration de peuplement (regroupement familial) et de dénatalité s’ajoutent les phénomènes de la hausse de la mortalité (alcoolisme, déclin des systèmes de santé, en Russie, en Europe orientale et méditerranéenne...) puis des difficultés d’intégration des communautés musulmanes subsahariennes, turques et maghrébines. Le malaise ressenti par les populations, exprimé par des votes dits « populistes », ne doit pas être sous- estimé ou simplement ignoré par principe pour ne « pas faire le jeu des extrêmes », car c’est justement le meilleur moyen d’attiser les réactions radicales, complotistes, et la défiance croissante envers les dirigeants en place qui omettent la question identitaire et démographique. Les réactions populaires en Italie, en Autriche, en Hongrie ou en Grèce face aux flots de réfugiés des années 2015-2017 entrent dans ce contexte hautement sismique tout comme l’inquiétant phénomène des abstentions électorales en Europe qui n’augurent rien de bon pour l’avenir des démocraties libérales. Les conséquences sociopolitiques et géocivilisationnelles de l’immigration Les partisans de la mondialisation heureuse et de l’ouverture par principe affirment que le phénomène migratoire est toujours une chance et est bon en soi. Pareille attitude ne tient pas compte du fait que l’immigration ne peut être perçue comme un simple remède pour régler le problème des retraites d’Européens inféconds (vision d’ailleurs assez méprisante envers les migrants), et qu’elle a forcément des conséquences sociales, sécuritaires et culturelles. Si nombre d’immigrés sont certes des travailleurs acharnés sans lesquels des filières comme, la restauration, l’hôtellerie, le bâtiment, ou même l’agriculture connaîtraient des difficultés de recrutement, en revanche, nombre d’entre ceux dont l’émigration est motivée par les aides sociales octroyées par les États providences européens sont quant à eux peu productifs. Ce problème n’est pas dû à l’immigration en elle-même, qui peut être fort positive lorsqu’elle est intégrée, assimilée, donc choisie et productive, mais au caractère non sélectif et de moins en moins choisie de la politique d’immigration en Europe, dominée, depuis l’arrêt officiel de l’immigration de travail en 1975, par le regroupement familial, les flux clandestins non désirés et les demandes d’asile largement détournées. Les coûts humains, économiques et sociétaux du traitement de la délinquance et des difficultés d’intégration qui résultent de cette non-politique d’immigration hors contrôle sont devenus exorbitants dans plusieurs pays européens, même si cela concerne surtout l’immigration postcoloniale issue d’Afrique noire et maghrébine et beaucoup moins l’immigration latino-américaine et surtout asiatique. Secundo, si l’objectif utilitaire des migrations n’avait pour but que de compenser la dénatalité des habitants « de souche » – ce qui n’est pas le cas – les flux nécessaires seraient bien plus massifs et donc ingérables, et par conséquent encore plus explosifs : selon les estimations des Nations unies et de l’Union européenne, onze millions de nouveaux migrants par an seraient nécessaires pour maintenir la population active européenne à l’horizon 2050, avec sur le long terme des dépenses sociales impossibles à financer (formation, éducation, intégration, sécurité, retraites et santé). La « fermeture des frontières » est certes illusoire, mais les pays européens pourraient mieux maîtriser les flux migratoires dans le cadre d’une immigration légale et choisie, faute de quoi les conflits identitaires autour de cette question risquent d’être un jour hors contrôle. Par ailleurs, présenter l’immigration extra-européenne comme une fatalité ou une « compensation » postcoloniale est irresponsable, quand on sait que le « surplus » de jeunes à absorber, selon les termes de Bouthoul, représentera pour l’Afrique au moins un milliard d’individus en plus dans trente ans. De plus, l’immigration de masse ne concerne pas seulement les plus pauvres des Africains, mais aussi des forces vives et intellectuelles qui vont manquer aux pays d’origine, ce qui empêchera une stabilisation et un développement du pays. En Italie, la fondation Farefuturo, qui a réalisé une étude sur les nouveaux flux migratoires depuis les années 1990, a observé que près de 80 % des demandeurs d’asile et plus de 60 % des migrants légaux bénéficiant des mesures de regroupement familial professent la foi musulmane (voir Michèle Tribalat, op. cit.), or face à un monde musulman « réislamisé » de façon ultraconservatrice (islamisme politique), les sociétés d’accueil européennes ne peuvent pas être étanchéisées par magie et ne peuvent pas éviter les conséquences prévisibles, à savoir hériter des problèmes des pays afro-musulmans : islamisme radical, djihadisme, sort peu enviable des femmes, polygamie, rapports problématiques à la laïcité (voir affaires Charlie Hebdo, Mila, etc.) et aux droits des minorités (judéophobie, christianophobie, athéophobie, condamnation à mort des apostats et des polythéistes dans la charia, etc.). Quelques chiffres qui parlent d’eux-mêmes D’après la Commission européenne, le nombre total de migrants – non éligibles au statut de réfugiés politiques – arrivés entre 2015 et 2020 sur son territoire s’élèverait à 2 millions 19 . Ce chiffre est vraisemblablement en dessous de la réalité, car rien qu’en France, sur la période du seul quinquennat, le nombre total d’immigrés (légaux ou illégaux) durablement installés et profitant de nombreuses aides – toujours plus coûteuses pour les collectivités publiques – avoisinerait les 2 millions de personnes, soit une moyenne de 350 000 à 400 000 personnes par an. Ce chiffre a notamment été avancé par le député européen et ex-ministre de l’Intérieur, Brice Hortefeux, qui a recoupé les données des ministères compétents et ceux de l’Insee 20 . Sur plusieurs décennies, le total accumulé s’apparente à une « immigration de peuplement » qui ne peut que contribuer à changer progressivement le tissu social et civilisationnel du pays, donc son identité nationale même, ce qui n’est pas un simple détail que les responsables politiques peuvent se permettre de négliger. En 2019, l’immigration due au regroupement familial (90 502 titres de séjour) ainsi que les titres accordés aux étudiants (90 336), quasiment équivalents, ont été les principales filières, suivies des titres accordés aux demandeurs d’asile, en augmentation (voir infra) – environ 36 275 demandes acceptées en 2019 et 24 118 en 2020. Les premiers pays d’origine de l’immigration (titres de séjour délivrés en 2019) étaient le Maroc, en tête, suivi de l’Algérie, de la Tunisie, de la Chine et de la Côte d’Ivoire. Curieusement, l’immigration dite « économique », officielle, donc désirée, ne représente qu’un peu plus de 13 % du nombre total de titres, soit 32 815. Enfin, environ 20 000 titres de séjour dans le cadre du « passeport talent » ont été délivrés la même année. De ce fait, si l’on additionne ces 255 000 entrées légales aux estimations d’entrées illégales précédemment évoquées, nous atteignons le nombre de 400 000 nouveaux immigrés par an, sachant que moins de 10 % des immigrés clandestins sont effectivement reconduits dans leur pays après des mesures d’expulsion, et que l’immigration clandestine tend à être dépénalisée dans les pays de l’UE. À ces centaines de milliers d’immigrés qui arrivent chaque année – et qui s’ajoutent à ceux précédemment arrivés puisque la plupart restent sur le territoire français –, il faut additionner le nombre de naturalisés, soit 80 000 personnes en 2018, selon le ministère de l’Intérieur. Spécialiste des questions migratoires, la démographe française Michèle Tribalat, directeur de recherche à l’Ined, apporte quelques précisions assez difficilement réfutables sur les chiffres liés au nombre d’étrangers et de Français issus de l’immigration. Sachant que la population d’origine étrangère, dans la statistique publique, désigne « l’ensemble formé par les immigrés (personnes nées à l’étranger, qu’elles aient encore une nationalité étrangère ou qu’elles soient devenues françaises depuis leur arrivée en France) et les personnes nées en France d’au moins un parent immigré », elle rappelle que, selon les derniers chiffres connus de l’Insee (issus de l’enquête Emploi et de l’enquête annuelle de recensement, 2015), 20,1 % des Français de France métropolitaine seraient d’origine partielle ou pleinement étrangère, un taux qui monte à 42,1 % en région francilienne pour les jeunes de moins de 18 ans. Avec Bernard Aubry, Tribalat a mené nombre d’enquêtes détaillées sur ces sujets, et les deux chercheurs en ont conclu que depuis 2015, 1,3 million de jeunes en Île-de-France seraient issus de l’immigration 21 . D’une manière générale, d’après les chiffres de l’Ofii (l’Office français de l’immigration et de l’intégration), la France compterait environ 10 % d’immigrés actuellement, bien loin des 6,5 % souvent cités. Toutefois, d’après la démographe Michèle Tribalat, 20 millions de citoyens français seraient en fait d’origine étrangère (au moins un parent né à l’étranger et non français ou fils de parents non français nés à l’étranger), soit 4 fois plus qu’il y a une vingtaine d’années. Cette augmentation continue – excepté durant la première année de la Covid – est en fait le résultat d’une combinaison de facteurs objectifs et subjectifs : 1/ la pression des lobbys et instances nationales et internationales qui poussent à ouvrir les frontières aux migrants – quels qu’ils soient – et à dépénaliser l’immigration illégale puis à accorder à ces derniers les mêmes droits et aides économiques que ceux normalement réservés aux citoyens autochtones et aux migrants réguliers ; 2/ le laxisme judiciaire qui bloque 90 % des expulsions de migrants illégaux et faux réfugiés ; 3/ le contournement croissant du droit d’asile ; 4/ le refus d’une immigration choisie et la généralisation du droit du sol, du regroupement familial et de l’accueil des demandeurs d’asile, souvent faux, au détriment d’une immigration économique ciblée et concertée. Le droit d’asile, principal prétexte à la migration clandestine Dans un entretien accordé au Figaro, Michèle Tribalat estimait l’immigration illégale à partir de « recoupements de chiffres (interpellations, placements en centre de rétention, aide médicale d’État, déboutés du droit d’asile) à 200 000 à 400 000 personnes ». Quant à l’ex-ministre de l’Intérieur, Gérard Collomb, il avait évalué, fin 2017, le nombre total d’étrangers en situation irrégulière présents sur le territoire français à 300 000. Cette estimation – minimaliste –, basée sur des statistiques de l’Insee et sur le nombre de bénéficiaires de l’AME (aide médicale d’État), n’est cependant pas suffisante, puisqu’elle ne tient pas compte de l’ensemble de la population étrangère en situation d’irrégularité en France dont une partie ne se déclare pas à l’AME. Depuis les années 2000, la moyenne des arrivées de clandestins se situant autour de 80 000 à 140 000 par an, le nombre cumulé d’immigrés clandestins est en fait bien plus proche du million, sans même compter les centaines de milliers d’étrangers arrivés de façon illégale depuis les années 1970 qui ont été régularisés, et qui ont de ce fait disparu des statistiques concernant les illégaux et les étrangers. Patrick Stefanini, ancien secrétaire général du ministère de l’Immigration, donne au moins 900 000 étrangers séjournant illégalement sur le territoire français 22 . D’une manière générale, durant la dernière décennie, les arrivées illégales directes ont augmenté partout en Europe, particulièrement avec la « crise des migrants » ouverte en 2015. Les filières passent essentiellement par trois grandes zones aux frontières méridionales de l’UE : les côtes grecques de la mer Égée ; les îles du sud de l’Italie ; le détroit de Gibraltar et les enclaves espagnoles de Ceuta et Melilla, récemment prises d’assaut par des milliers de migrants sahéliens et maghrébins (mai 2021), suite à une brouille entre l’Espagne et le Maroc. Les immigrés ainsi entrés tendent ensuite à se disperser dans le continent. Depuis des décennies, le nombre de demandes est en constante progression : +7,3 % entre 2018 et 2021. La France est ainsi devenue le pays d’Europe le plus « attractif », avec 154 620 demandes enregistrées en 2019, contre environ 120 000 en Allemagne 23 . On sait par ailleurs que 85 % des demandeurs d’asile déboutés restent et ne sont presque jamais reconduits dans leurs pays. Selon le préfet François Lucas, « le doublement des demandes ces cinq dernières années révèle un détournement de la procédure, pas seulement une faillite du système Dublin. Il s’agit en effet de migrations économiques 24 ». En d’autres termes, il existe un « stock » de demandeurs d’asile déboutés, qui restent et ne sont pas reconduits. En 2015 déjà, la Cour des comptes annonçait que 96 % des déboutés du droit d’asile resteraient sur le territoire français. Toutefois, on notera qu’à la suite de la crise sanitaire, les chiffres de demandes d’asile et en général de l’immigration ont connu un ralentissement relatif et prévisible en Europe, avec une baisse de 33 % en 2020. En France, quelque 95 600 demandes d’asile, mineurs inclus, ont été introduites à l’Ofpra, soit une baisse de 28 % par rapport à 2019. Parmi ces demandes, 86 620 étaient des premières candidatures et 8 830 des réexamens. Précisons que ce chiffre, tout de même impressionnant malgré la crise sanitaire et son lot de mesures de confinements et restrictions des voyages, n’inclut pas les demandes enregistrées en préfecture et placées en procédure dite « Dublin » sous prétexte que la France n’est pas responsable de leur examen, et dont l’Ofpra ne peut légalement être saisi. En 2020 et 2021, les principaux pays de provenance des primo-demandeurs d’asile demeurent l’Afghanistan, la Guinée, le Bangladesh, la Côte d’Ivoire, le Nigeria, la Turquie et le Pakistan, les demandes de ressortissants de Géorgie et d’Albanie ayant commencé à diminuer 25 . L’ensemble des pays africains représenterait 40 % des requêtes. L’Ofpra notait ainsi « une progression notable de la demande en provenance de pays d’Afrique de l’Ouest comme la Côte d’Ivoire et la Guinée ». Quant aux Syriens, dont les médias et lobbys promigrants parlent en permanence pour légitimer, par leur drame, la cause des demandeurs d’asile arrivés illégalement – très souvent de faux réfugiés politiques –, ils sont très peu représentés. Selon la même source, sur ces 138 420 demandes d’asile, seulement 33 330 ont été acceptées, ce qui signifie qu’environ 100 000 personnes se sont vu refuser ce droit, sans toutefois jamais quitter la France, et ce malgré les notifications d’obligation de quitter le territoire. Le tabou du coût de l’immigration Quant au coût annuel de l’immigration, dans le contexte d’un État providence très généreux en France – à savoir la différence entre ce qu’elle rapporte et ce qu’elle coûte –, certains experts l’évaluent – avec chacun des critères fort différents – entre 5 et 70 milliards d’euros. Ces chiffres les plus maximalistes, étonnants et vivement contestés par les partisans de l’immigration de masse, sont pourtant le fruit d’études qui ajoutent aux coûts « classiques » des migrations illégales les dépenses inhérentes, directes et indirectes, aux aides (logement, santé, justice...) et au traitement social et sécuritaire de l’immigration. Pour les estimations les plus minimalistes, un rapport de la Cour des comptes publié le 5 mai 2020 a évalué les coûts « de l’entrée, du séjour et du premier accueil des personnes étrangères en France » pour l’année 2019 à 6,57 milliards d’euros, un montant qui n’a pas pris en compte le coût des dépenses sociales (assurance maladie, retraites et aides sociales de droit commun en général, type RSA ou APL), de celles liées à la justice et à la politique de sécurité, et la prise en charge des mineurs isolés par les collectivités locales. Ainsi, le 22 janvier 2020, le comité d’évaluation et de contrôle des politiques publiques de l’Assemblée nationale a souligné, dans un rapport relatif à l’évaluation des coûts et bénéfices de l’immigration en matière économique et sociale, que le document de la Cour des comptes a sous-évalué les coûts de scolarisation des enfants immigrés par le ministère de l’Éducation nationale 26 . Par exemple, si l’Éducation nationale avance le chiffre de 161 millions d’euros pour les coûts de l’immigration dans son domaine d’action publique, le ministère de l’Enseignement supérieur évoque la somme de 2,2 milliards d’euros, correspondant aux 10,6 % d’étudiants étrangers du secteur public. Quant aux coûts inhérents à la police aux frontières et ceux des infractions pénales spécifiques relevant du séjour sur le territoire (exemple : refus d’exécuter une mesure d’éloignement), la police nationale a avancé le chiffre de 1,2 milliard d’euros en 2020 pour ce seul poste. De la même manière, une étude publiée par le Centre d’études prospectives et d’informations internationales (Cepii, service de recherche économique rattaché au Premier ministre 27 ), intitulée L’Impact budgétaire de 30 ans d’immigration en France, avait déjà estimé en 2011 le coût de l’immigration à 1,64 point de pourcentage de PIB, soit, ramené à l’année 2019, l’équivalent de 40 milliards d’euros, sachant que le phénomène migratoire n’a cessé de s’accroître depuis dix ans. Et cette étude n’est pas la plus maximaliste puisqu’elle exclut par principe les coûts de l’immigration irrégulière, pourtant en hausse depuis des décennies et surtout depuis 2015. Ces coûts sont évalués à 1 milliard annuel pour l’AME et 2 milliards par an pour les 50 000 mineurs non accompagnés (MNA), chiffres confirmés par un rapport du Sénat en 2021 28 . La Cour des comptes déplore d’ailleurs le détournement des demandes d’asile qui expliquerait un tiers de la progression des coûts ainsi que l’aide médicale d’État (un cinquième). Les magistrats précisent que ces dépenses exorbitantes ne peuvent qu’augmenter à l’avenir de façon quasi mécanique en raison de la progression constante (hors année de la Covid 2021) de l’immigration légale de peuplement (regroupement familial) et de l’immigration illégale, favorisées par les appels d’air inhérents au droit du sol, à la dépénalisation de la migration clandestine, au regroupement familial, et aux aides d’État indiscriminées, qui ne connaissent aucune restriction sensible. Sur un quinquennat et sur ces bases, certains ont chiffré le montant à plus de 50 milliards d’euros de dépenses publiques liées à l’immigration au total. Pause migratoire ? C’est en s’appuyant sur les chiffres évoqués plus haut qu’un certain nombre de responsables politiques – et pas seulement des « populistes » ou des partis accusés de « xénophobie » – se sont déclarés ces dernières années favorables à la suppression du droit du sol, principal vecteur de naturalisation de migrants qui ne sont pas toujours intégrables, et dont une part importante est issue de l’immigration illégale et a été régularisée en masse par la suite (« circulaire Valls » du 28 novembre 2012). Ainsi, la présidente de la région Île-de-France, Valérie Pécresse, déclarait : « L’acquisition de la nationalité française ne doit plus être automatique. Il faut la demander, la désirer, pas l’obtenir à 18 ans dans une pochette-surprise », ajoutant : « La France, ça doit être un choix. » D’autres préconisent de supprimer l’AME ou de la réserver à la prise en charge des maladies les plus graves, sachant qu’elle coûte un milliard chaque année aux contribuables et qu’elle contribue à faire de la France un pays attractif aux yeux d’immigrés clandestins attirés « non pas par le plein-emploi mais par la générosité de notre politique sociale », poursuivait l’ex-ministre. Dans les années 1960, le célèbre démographe Alfred Sauvy avertissait que le phénomène de l’immigration de masse extracommunautaire aurait des conséquences civilisationnelles, sociales, économiques et sécuritaires majeures, probablement hautement sismiques si des mesures de sélection et de contrôle n’étaient pas prises. Soixante années plus tard, à l’heure des débats houleux sur les quartiers de non-droit et de non-France, de l’indigénisme francophobe et de l’islamisme occidentalophobe qui progressent au sein d’une partie de l’immigration désassimilée et abandonnée par l’État laxiste aux lois des quartiers et des imams intégristes, un sondage de l’institut Ipsos a révélé que 60 % des Français percevraient désormais les migrants comme une « menace 29 », et 45 % estiment que ces derniers les priveraient de services sociaux. Bref, les immigrés intégrés et l’immigration choisie paient en termes d’image et de perception négative les dérives de l’immigration non choisie, illégale ou/et non intégrée. Le général de Gaulle disait qu’il était « simple d’assimiler un individu, mais difficile d’assimiler un peuple ». Or si la politique migratoire européenne et française n’est pas réformée dans le sens d’une assimilation exigeante, ce sont bien des peuples – pour la plupart originaires de civilisations bien différentes – qu’il faudra intégrer de façon communautariste, l’assimilation se faisant de plus en plus difficilement pour des raisons à la fois de déterminisme culturel et confessionnel, de nombre et en vertu d’une mondialisation qui permet aux fanatiques du monde islamique d’embrigader à distance des communautés musulmanes d’Occident. En Europe et en France, une pause migratoire, comme cela fut le cas aux États-Unis entre 1920 et 1965, suite à la dépression de la fin des années 1920 et 1930, serait une voie raisonnable qui permettrait de consolider l’intégration des immigrés déjà arrivés en masse et même d’assimiler ceux qui sont arrivés de longue date ainsi que leurs descendants, trop souvent travaillés par des puissances étrangères étatiques ou transnationales, notamment islamistes, opposées à l’intégration de leurs coreligionnaires aux mœurs « impies ». Les propos de l’ancien roi du Maroc, Hassan II, pourtant francophile, confirment rétrospectivement ce constat d’une intégration compliquée d’un trop grand nombre de personnes venues d’une civilisation arabo-islamique, parfois antinomique, et donc de l’impératif d’investir plus dans l’assimilation : « L’intégration est possible entre Européens. La trame est la même, c’est le même continent. Ils [les Marocains] ne seront jamais 100 % français, ils seront de mauvais français, je peux vous l’assurer 30 . » On se souvient de Michel Rocard et sa fameuse formule : « Nous ne pouvons pas héberger toute la misère du monde. La France doit rester ce qu’elle est, une terre d’asile politique [...] mais pas plus », avait lancé l’ancien Premier ministre en 1989. Ou de Georges Marchais, secrétaire général du PCF (Parti communiste français) dans les années 1980, farouchement opposé à l’immigration de masse qui déclarait (déjà) : « Nous posons le problème de l’immigration. » Ces deux figures de la gauche alertaient déjà les risques d’une immigration non choisie. Ils n’étaient pourtant ni « fascistes » ni xénophobes... Une fois de plus, la démarche géopolitique montre que l’irénisme et le manichéisme moralisateur ne permettent ni de formuler un jugement froid, ni de prévoir les risques et menaces à venir ou en cours de façon lucide, car l’idéologisation et le tout émotionnel qui domine aujourd’hui nos élites politiques au diapason des modes médiatiques sont l’ennemie de l’analyse. 1. Jacques Soppelsa, op. cit., supra. 2. Voir site des Nations unies : www.un.org/fr/sections/issues-depth/population/index.html 3. Communiqué de presse, Institut national d’études démographiques, 17 juin 2019. 4. « Le défi démographique : mythes et réalités », Institut Montaigne, juillet 2018. 5. Rapport des Nations unies, World Population Prospects 2019. 6. « Sous pression, le poids de la démographie mondiale », Magazine trimestriel du FMI, mars 2016. 7. Michel Schooyans. Le Crash démographique, Paris, Le Sarment-Fayard, 1999. 8. « Popolazione Italia (2001-2016) Grafici su dati ISTAT », Il Sole 24 ore, 29 novembre 2017. 9. Communiqué de presse de l’OMS, publié le 13 juillet 2020. Voir site de l’Organisation : www.who.int/fr 10. Chaque année, un tiers de la production alimentaire mondiale destinée à la consommation – environ 1,3 milliard de tonnes – est gaspillé. Les pays industrialisés et en développement gaspillent respectivement 670 millions et 630 millions de tonnes. 11. Rapport de l’Organisation des Nations unies pour l’alimentation et l’agriculture, The Future of Food and Agriculture, Alternatives Pathways to 2050, 2018. 12. Source : Banque mondiale, 2018, données téléchargeables sur le site de la Banque mondiale : donneesbanquesmondiales.org. 13. « Le défi démographique : mythes et réalités », art. cit. 14. « Migrants : pour le Dalaï-Lama, “l’Europe appartient aux Européens” », Le Parisien, 12 septembre 2018. 15. « Cardinal Sarah : “Ceux que vous accueillez doivent s’intégrer à votre culture” », InfoCatho, 19 avril 2019. 16. Voir Jean-Michel Nogueroles, « Pourquoi il faut un plan Marschall pour l’Afrique », Fild Fildmedia, 9 février 2021. 17. Gaston Bouthoul, Traité de polémologie. Sociologie des guerres, Paris, Payot, 1970, p. 115-120. 18. Frédéric Coste, « Bouthoul et la polémologie : l’étude des causes profondes de la guerre », Les Champs de Mars, février 2002, n o 12, p. 9-30. 19. L’Inspection générale des affaires sociales (Igas), l’Inspection générale de l’administration (IGA), l’Inspection générale de la justice (IGJ) et l’ADF évaluent d’ailleurs à 2 milliards d’euros le coût pour les départements par an et ils déplorent qu’au moins « une personne sur deux est évaluée comme majeure ». 20. L’immigration légale représentant 255 000 entrées par an, si l’on ajoute à ce chiffre les déboutés du droit d’asile (90 000) dont la majorité reste en France comme indiqué par la Cour des comptes, le chiffre annuel de 350 000 est plus réaliste. 21. Site internet de Michèle Tribalat : www.micheletribalat.fr/439632260. 22. Patrick Stefanini, Immigration. Ces réalités qu’on nous cache, Paris, Robert Laffont, 2020. 23. Cour des comptes, « L’entrée, le séjour et le premier accueil des personnes étrangères », 2020, p. 150. 24. Ministère de l’Intérieur, « L’essentiel de l’immigration », 21 janvier 2020, www.immigration.interieur.gouv.fr/Info-ressources/Etudes-et- statistiques/Statistiques/Essentiel-de-l-immigration/Chiffres-cles. 25. Ministère de l’Intérieur, « Les principales données de l’immigration », 21 janvier 2021. 26. Qui n’impute à la politique d’immigration que le montant des dispositifs fléchés sur des enfants allophones ou issus de familles itinérantes et de voyageurs (0,5 % des effectifs). 27. Cepii, L’Impact budgétaire de 30 ans d’immigration en France : (I) une approche comptable , document de travail. 28. Marie-Cécile Renault, « Près d’un milliard d’euros pour l’accès aux soins des étrangers en situation irrégulière en 2021 », Le Figaro, 28 septembre 2020. 29. « La France en tête des pays en attente d’un leader “fort” pour “casser les règles” », Ipsos, 13 septembre 2019. 30. Interview d’Hassan II au palais royal de Rabat. CHAPITRE XII Puissances multinationales et digitales face aux États souverains « De nombreuses rivalités stratégiques sont en train de passer du domaine matériel à celui de l’information dans la collecte et le traitement des données, la pénétration des réseaux et la manipulation psychologique. Faute de définition d’un minimum de règles de conduite internationales, la dynamique interne du système provoquera une crise 1 . » Henry Kissinger Les multinationales digitales occupent une place à part sur l’échiquier géopolitique mondial de par leur taille, leur influence, et leur omniprésence dans des sociétés structurées par les technologies de l’information. Forts de ce constat, certains, comme le politologue Bertrand Badie, affirment que les multinationales, les ONG et organisations internationales puis les mouvements identitaires et religieux transnationaux auraient détrôné l’État souverain qui ne serait plus la seule unité de base du système international 2 . Ce processus, qu’il appelle le « retournement du monde », ébranlerait de façon inédite la puissance étatique et provoquerait une crise encore plus large de l’autorité, l’État-nation n’étant plus capable d’établir les normes faisant consensus. Nous estimons, quant à nous, que si des entraves croissantes pèsent en effet sur les prérogatives traditionnelles des États, les acteurs non étatiques « mondialisés » n’affaiblissent que les États les plus faibles ou démissionnaires de leur souveraineté. Du point de vue géopolitique autant que juridique, l’État-nation souverain demeure le décideur en premier et dernier ressort : il peut se retirer de n’importe quel traité international, poser, s’il le veut, des règles strictes et des limites aux ONG, aux multinationales et aux réseaux sociaux, et il est donc capable de rester encore longtemps l’unité dominante de l’ordre mondial. Notre postulat est que la mondialisation marchande, indéniable, certes, n’est pas un acteur mais un phénomène neutre, un processus économique, digital, informationnel, et que ses outils technologiques peuvent autant être des opportunités que des contraintes pour les États qui peuvent en tirer parti et même accroître leur puissance et leur souveraineté en les utilisant à leur avantage (Chine, États-Unis). Quant aux firmes multinationales (FMN), aux ONG et aux organisations internationales, elles ne peuvent pas avoir le dernier mot en tant qu’acteurs face à des États puissants ou/et volontaristes (États-Unis, Chine, Russie, Inde, Brésil, Japon, Turquie, etc.). Du point de vue réaliste, la mondialisation marchande et digitale peut être vue comme un immense théâtre de compétition entre nations, et donc d’hyperconcurrence que les « meilleurs » et les plus offensifs sauront utiliser et canaliser à leur profit... La puissance des firmes multinationales Ceci dit, il est indéniable qu’avec la mondialisation marchande et les délocalisations, associées à l’économie virtuelle et digitale sans frontières, les relations internationales, loin de se limiter aux aspects politiques et diplomatiques, sont concernées par les réalités économiques et financières, au point que pour certains, les grandes FMN 3 , fruit de l’expansion du capitalisme international, sont considérées comme de nouveaux acteurs à part entière de la géopolitique et de la nouvelle diplomatie commerciale. Jusqu’à présent, ces firmes n’ont pas fait l’objet de réglementations internationales et nationales à même de limiter leur pouvoir pourtant souvent concurrent de celui des États. Or ceux qui ne s’accommodent pas de cela n’ont pas dit leur dernier mot, même s’ils ont souvent un train de retard... Aujourd’hui, un peu moins de la moitié des 100 premières puissances économiques mondiales sont des États (sur 197 reconnus et répertoriés par les Nations unies au total), l’autre moitié est représentée par des entreprises multinationales. Cela signifie que ces dernières sont bien plus puissantes que de très nombreux États dans le monde. Un seul exemple suffit à prendre la mesure incroyable de ce pouvoir non étatique : l’enseigne de supermarché américaine Walmart, la plus grosse entreprise au monde en termes d’effectifs, qui emploie 2,2 millions de personnes (soit l’équivalent de la population parisienne), réalise un chiffre d’affaires d’environ 524 milliards de dollars, selon le classement de Forbes 4 , c’est-à-dire autant que le PIB de l’Argentine ou de Taiwan... Il existe actuellement dans le monde quelque 60 000 FMN, qui contrôlent plus de 500 000 filiales, responsables de la moitié des échanges commerciaux internationaux, en particulier du fait de l’importance du commerce intrafirme (entre les filiales d’une même entreprise). Grâce à leur forte présence virtuelle, certaines peuvent opérer partout dans le monde sans aucun ancrage national ; les exemples de Netflix ou Amazon étant les plus évidents. En ce qui concerne la France, en 2017, les firmes multinationales représentaient 1 % des entreprises des secteurs principalement marchands non agricoles et non financiers, mais occupaient 49 % des salariés et généraient 57 % de la valeur ajoutée brute produite sur le territoire français. Par conséquent, beaucoup d’emplois en France se retrouvent sous contrôle étranger : 2,2 millions en 2017 contre 1,8 en 2016, soit 400 000 de plus en une seule année, principalement dans des entreprises de taille intermédiaire. Ces entreprises sont elles-mêmes contrôlées par des multinationales étrangères d’origine américaine (533 000 emplois) et allemande (324 000 5 ) et pour 16 800 entreprises, ces emplois concernent en majorité l’industrie. Le développement des FMN et de leur activité est à la fois la conséquence et l’un des moteurs essentiels de la mondialisation, tandis que, grâce au numérique, ces firmes transforment le monde et, avec lui, le commerce, dont elles constituent aujourd’hui le vecteur principal par la rapidité des transactions et l’échange d’informations instantané. Avec la croissance du commerce électronique, qui ne nécessite aucune présence physique d’entreprises sur le marché d’exportation, les FMN échappent très souvent aux taxes, et leur activité commerciale est rarement encadrée par des règles multilatérales. En outre, la régulation des pratiques commerciales est moins du ressort de la législation publique instaurée par les États (soumis au vote démocratique) que de celui des firmes internationales privées qui instaurent ainsi leur propre ordre parallèle. Qu’il s’agisse des FMN liées à la finance, à l’industrie pétrolière, à l’automobile, à l’énergie ou aux autres secteurs dont les domaines digitaux, leur poids économique est tel qu’elles concentrent puis contrôlent la majorité des marchés et de l’emploi dans certains secteurs. Elles ont la capacité d’influencer les politiques fiscales et sociales des États. La mise en place des tribunaux d’arbitrage internationaux permet par exemple aux multinationales de poursuivre un État en justice dans le cas où celui-ci mettrait en place une loi qui réduirait ses prérogatives ou profits. Les FNM peuvent ainsi faire condamner les États à verser des dédommagements très élevés. Que les pays concernés soient de grandes puissances ou des pays moins avancés ou en voie de développement, ils subissent presque tous (excepté peut-être des régimes dictatoriaux et nationalistes comme la Chine) cette « justice » internationale non étatique et non issue d’accords entre États souverains, non pas en raison d’une fatalité mais d’un habitus et d’une abdication en réalité réversibles. Les prérogatives exorbitantes du droit public impactent les droits les plus fondamentaux des citoyens, à commencer par la santé, les droits salariaux, mais aussi l’environnement ou les droits de l’homme. Un des points de crispation des traités de libre-échange récemment portés par les États-Unis et l’Union européenne comme le Transatlantic Trade and Investment Partnership 6 (TTIP) concerne d’ailleurs l’introduction du dispositif dit « d’arbitrage privé », présent dans la majorité des accords commerciaux internationaux. Ce dispositif est censé garantir une juste impartialité aux investisseurs étrangers afin qu’ils puissent se défendre contre les abus éventuels des États ou contre des législations trop contraignantes pour eux. Or les arbitres de ces tribunaux ne sont pas des juges mais des avocats d’affaires qui peuvent être à tour de rôle arbitres, défenseurs d’un État ou d’une entreprise. Issus d’une élite mondialisée très restreinte, ces avocats donnent logiquement très souvent gain de cause aux investisseurs. Les entreprises multinationales peuvent donc attaquer un État pour un investissement qui n’a même pas eu lieu, juste pour le manque à gagner qu’une loi aurait empêché. C’est ainsi qu’en 2016, McDonald’s a réclamé 17,8 millions d’euros à la ville de Florence uniquement pour le fait de ne pas l’avoir laissé ouvrir un restaurant sur la place principale ! Les États – surtout ceux dirigés par des élites occidentales libertariennes qui ne luttent pas contre ces abus par parti pris – voient ainsi une logique économique s’imposer à eux au détriment des décisions de leur pouvoir législatif et de la souveraineté des peuples. Il est clair que les dédommagements obtenus par les multinationales au titre du « manque à gagner » cité précédemment peuvent léser les droits des citoyens du fait même de l’effet dissuasif direct de ces entités sur l’adoption de réglementations jugées trop protectrices des consommateurs et qui nuiraient aux intérêts financiers des FMN. Par exemple, un État qui ferait adopter une loi visant à éliminer un produit jugé nocif pour la santé peut être attaqué en justice par l’entreprise multinationale s’estimant lésée. Cela fonctionne également pour un permis d’exploitation de terres qui viendrait à être annulé par un gouvernement. Avec ces tribunaux d’arbitrage privé, les multinationales imposent leur volonté, ceci dans le plus grand secret. D’évidence, les États souverains et leurs dirigeants pourraient, s’il y avait une réelle volonté de reprendre le contrôle, combattre ce système qui menace leurs prérogatives régaliennes. Cependant, les liens d’intérêts entre grandes entreprises et gouvernements sont souvent forts, ces derniers étant désireux d’attirer les investissements étrangers dans leurs pays et ainsi motivés à signer des traités favorables aux multinationales. Cinquante-quatre pays ont ainsi adopté en 2019 107 mesures relatives à l’investissement étranger dont 76 % visant à libéraliser, promouvoir et faciliter les investissements 7 . Les multinationales sont souvent qualifiées de footloose, ou « jambes légères », car elles s’installent dans un pays, récupèrent des subventions et avantages, puis partent ailleurs dès que d’autres pays offrent des conditions encore plus attractives. Ces multinationales nomades sont de deux types : celles qui s’implantent dans un autre pays suivant des avantages comparatifs, leur objectif étant de créer une chaîne de valeur transfrontalière pour baisser les coûts ou accéder à des ressources spécifiques et à des capacités d’innovation d’un pays ou de mains-d’œuvre hautement qualifiées, puis celles qui cherchent le profit avant tout et dont la logique d’implantation est celle des portefeuilles de valeurs. Leurs actionnaires sont des entités institutionnelles, des fonds de pensions, des entreprises hedge funds, des fonds de spéculation, des fonds d’investissement et des private equity. Leur modèle de développement est le « capitalisme impatient » et footloose, selon lequel les investisseurs cherchent à obtenir des profits à très court terme, ce qui est aux antipodes du modèle européen qui s’appuie sur le développement des chaînes de valeur qui nécessitent beaucoup de patience. Les footloose prolifèrent partout, n’apportent pas toujours de création de valeurs et leur marketing agressif participe du fait que leurs produits ne sont ni utiles ni vertueux : Coca-Cola, qui nuit à la santé de millions de personnes et dont la popularité est fondée sur des publicités agressives surfant sur le soft power américain, couvre par exemple la quasi-totalité de la terre avec ses filiales locales si denses que la firme peut servir la grande distribution et les magasins de proximité du monde entier. L’idée est celle de l’impérialisme marchand : commercialiser des produits vides de sens et addictifs. Délocalisation, fiscalité avantageuse et comportements parfois criminels Afin de réduire les dépenses et d’augmenter les bénéfices, les FMN délocalisent leur production pour profiter des faibles coûts de main-d’œuvre et des normes sociales, environnementales et de sécurité très basses, voire parfois nulles, offertes par les pays en développement, en particulier ceux d’Asie du Sud-Est et d’Afrique. La chaîne de production de ces entreprises est aujourd’hui répartie entre de multiples unités là où la main-d’œuvre est la moins chère, ce qui crée dans le même temps du chômage dans les pays d’origine. Les stratégies de communication et de marketing se font à l’échelle mondiale et les profits sont localisés dans des paradis fiscaux afin de minimiser l’impôt. Les FMN en paient en effet bien moins que les firmes locales de plus petite envergure. Elles doivent, certes, composer avec les lois élaborées dans les États « hôtes », mais celles-ci varient fort d’un pays à un autre et sont plus ou moins strictes et respectées. Certains pays sont tellement conciliants qu’ils autorisent l’exploitation de leur main- d’œuvre dans des conditions inhumaines, offrant ainsi une quasi-impunité juridique pour des faits qui seraient gravement sanctionnés dans les États occidentaux d’origine. Les FMN essaient donc souvent, et avec succès, de saper le pouvoir des États qui peinent à adopter des lois et à s’entendre entre eux pour limiter leur influence. Grâce à leurs avantages fiscaux et à leurs moyens de pression économiques gigantesques, les FMN rachètent bon nombre d’entreprises locales pour mettre parfois tout un marché et un secteur sous leur coupe monopolistique. Leur puissance est telle qu’elles sont en mesure de déstabiliser des zones géopolitiques entières, voire de collaborer avec des États ou des organisations criminelles. Ces entreprises se font une forte concurrence à l’échelle internationale et tous les moyens – ou presque – semblent bons pour conquérir de nouvelles parts de marché 8 . De fait, leur influence financière, économique, politique et souvent même géopolitique, est impressionnante, et grâce à cette force financière et géoéconomique, les FMN ont toujours plus d’ambition pour se mesurer aux États, voire tenter de les dépasser dans certains domaines, ainsi qu’on l’observe de façon flagrante avec Tesla et le projet spatial de son P-DG, Elon Musk, qui a conçu et mis en service des lanceurs réutilisables sur sa fusée Falcon 9 (la plus puissante du monde). Une première dans l’histoire spatiale, puisque, outre le fait que ce domaine industriel est d’habitude une prérogative régalienne, ce projet n’avait jamais été réalisé par la Nasa, qui, après avoir mal vécu cette concurrence, a finalement composé et signé des contrats de partenariat avec Tesla. Récemment, le patron d’Amazon, Jeff Bezos, a lui aussi décidé de créer sa propre industrie spatiale. Les deux créateurs ont d’ailleurs comme projet de développer dans un futur proche le « tourisme spatial », signe des ambitions démesurées que peuvent poursuivre les dirigeants des plus puissantes entreprises du monde. Les Gafam en question... ou l’économie virtuelle à l’assaut du monde ancien Ceci nous amène à aborder le cas spécifique des multinationales du domaine digital, les fameuses Gafam (acronyme de Google, Apple, Facebook, Amazon et Microsoft), entreprises stars de la Silicon Valley californienne, qui ont envahi notre quotidien, influencent l’opinion dite « publique », et créent les nouveaux besoins des consommateurs rendus de plus en plus dépendants. Elles sont désormais capables de faire et défaire les rois mieux que les médias classiques. Elles constituent aussi une nuisance sécuritaire, étant donné la présence du crime organisé et des réseaux islamistes, extrémistes et terroristes sur leurs forums et sur le Net en général. Elles ont même fondé des succursales avec les Natu (Netflix, Airbnb, Tesla et Uber). Ces entreprises ont su renouveler au XXI e siècle le mythe américain des chercheurs d’or ou de pétrole devenus milliardaires en quelques coups de pioche. Ces start-up, parfois créées dans un garage, sont ainsi devenues les plus grandes capitalisations boursières mondiales et leurs patrons, des icônes de l’entrepreneuriat à succès puisque ces entreprises ont parfois à peine plus de 20 ans (Facebook a été créé en 2004 et Google en 1998). Pourtant, ces Gafam n’acquittent pratiquement pas d’impôts dans de nombreux pays, ou extrêmement peu, ce qui constitue un manque à gagner gigantesque pour les États. Champions de l’optimisation fiscale, elles font ressortir leur chiffre d’affaires dans les pays les moins fiscalisés et paient bien moins d’impôts que d’autres entreprises (« dumping fiscal »). Les calculs de la Commission européenne montrent que l’impôt sur les sociétés (IS) payé par les méta-plates-formes serait de l’ordre de 9 %, contre 23 % pour les acteurs de l’économie traditionnelle. Si une nouvelle taxe plus élevée était instaurée pour les acteurs du numérique, le montant annuel pour l’UE pourrait atteindre 415 milliards de dollars ! D’après certaines études, les pays européens auraient ainsi perdu à eux seuls 5,4 milliards d’euros en impôt de la part des seuls Google et Facebook, rien qu’entre 2013 et 2015 9 ! Quant aux experts du Cepii, ils estiment que les cinq Gafam ont payé moins de 10 % d’impôts sur leurs bénéfices hors États-Unis en 2016, Apple a même payé 0,005 % de taxes sur ses bénéfices européens en 2014, et Google 2,4 % sur ses profits hors États-Unis entre 2007 et 2009 10 . Certes, on n’est pas loin de trouver un consensus au niveau européen avec le projet de taxation des Gafam, mais ces derniers ont au moins vingt ans d’avance sur les États souverains, et une très forte capacité d’adaptation et d’inventivité, sans oublier leur pouvoir d’influence et leurs capacités à exercer des pressions sur les dirigeants politiques pour obtenir des avantages. Les Gafam ont ainsi acquis des positions dominantes sur les marchés numériques mondiaux en prenant le contrôle des plus importantes plates-formes de services internet en termes de nombre d’abonnés ou d’utilisateurs. Ces multinationales américaines du Web ont la caractéristique commune d’avoir toutes réussi à imposer des standards technologiques et sociétaux majeurs. Elles rendent ainsi les consommateurs dépendants de leurs services, grâce au contrôle de l’ensemble des écosystèmes d’utilisation d’interfaces (applications, logiciels, terminaux, équipements, accessoires) et des produits dérivés. Ces cinq sociétés hors norme ont su imposer des produits et des services d’une valeur exceptionnelle à leurs clients avec des offres d’une utilité telle qu’elles ont su s’imposer massivement dans le monde. À tel point que dans les pays développés, un utilisateur lambda passe plus de 80 % de son temps à surfer et à vivre dans le monde numérique, 51 % de sa journée étant consacrée à ces sociétés (messagerie électronique, e-commerce, musique, vidéo, réseaux sociaux...). Cette tendance s’explique par le fait que ces plates-formes proposent des services et des solutions en lien avec tous les domaines de la vie quotidienne en s’adaptant et en répondant quasiment en temps réel aux besoins des utilisateurs. Cela leur permet, bien sûr, d’écraser la concurrence de n’importe quelle entreprise car elles gèrent le marché et donc les prix selon leur bon vouloir. Les Gafam occupent tous des positions dominantes dans leur propre secteur. Google détient par exemple 90 % de la part de marché mondial en matière de recherche sur le Web, avec en moyenne plus de 5 milliards de recherches par jour. Facebook totalise plus de 2,7 milliards d’utilisateurs actifs et s’impose comme le seul réseau social à dimension mondiale. Quant à YouTube, avec des versions localisées dans une centaine de pays et la traduction de son site possible en 80 langues, il compte plus de 2 milliards d’utilisateurs mensuels qui regardent plus d’un milliard d’heures de vidéo par jour. « YouTube (racheté par Google en 2006) est vu bien plus que n’importe quelle chaîne de télévision 11 . » De plus, les Gafam se complètent dans leurs activités : nous avons besoin d’un téléphone Apple pour surfer sur Google pour ensuite aller sur Facebook et Amazon. Pour information, Apple (Apple iOS) possède 52 % des abonnés détenus par les systèmes d’exploitation, en concurrence avec Google Android qui en possède 47 % 12 . La puissance financière, politique et technologique démesurée des Gafam La capitalisation boursière de ces sociétés dépasse le PIB de certains États. Pour chacune d’elles, à l’exception de Facebook, le montant dépasse 1 000 milliards de dollars, soit le produit intérieur brut des Pays-Bas, qui sont tout de même à la 17 e place du classement des États les plus riches du monde ! Le PIB des Gafam, soit 5 170 milliards de dollars 13 , est supérieur à celui de l’Allemagne, du Japon ou de la France ! Ils sont même plus riches que la valeur cumulée des constructeurs automobiles ou que les deux tiers des entreprises du CAC 40, ce qui est inouï puisqu’ils sont fondés sur une activité virtuelle et ne produisent pas de biens manufacturés et industriels. « Beaucoup de consommateurs croient qu’Internet est gratuit. Nous savons, au regard des profits de Google [27,8 milliards d’euros de bénéfices en 2018], que ce n’est pas le cas », remarque le Texan Ken Paxton, l’un des cinquante procureurs d’États américains. Paxton vient d’ailleurs d’ouvrir une enquête accusant Google de monopoliser et de fausser le marché 14 . La puissance de ces entreprises est donc de plus en plus liée à leur capacité à utiliser l’or noir du XXI e siècle, à savoir les data et big data. Quelle entreprise peut-elle parvenir, en partant de zéro, à disposer de près de 10 milliards de dollars de revenus en seulement quelques années ? C’est la prouesse que vient pourtant de réussir Amazon avec son service Prime Video, et cela grâce à sa capacité à savoir quels pourraient être les films que chacun de nous préférera. Alors que la plupart des entreprises ont souffert économiquement de la pandémie, ce n’est pas du tout le cas des Gafam : Apple, Amazon, Microsoft ou Facebook ont tous augmenté leur chiffre d’affaires pendant la crise. De plus en plus souvent en situation de télétravail, les employés utilisent plus Internet et les réseaux sociaux pour communiquer et travailler. Ce phénomène de digitalisation de l’économie est en augmentation exponentielle, comme on l’a vu avec les ventes d’Amazon qui ont littéralement explosé, son chiffre d’affaires étant en hausse de 40 %, avec 89 milliards de dollars et un bénéfice net qui double à 5,2 milliards avec 175 000 emplois créés au deuxième trimestre 2020 15 . Cette concurrence est plus que déloyale pour les petits commerces : elle est souvent mortelle, car nombre d’entre eux ont dû mettre la clé sous la porte et laisser leur part de marché aux géants du Web. Les Gafam dépassent désormais nombre d’États dans le domaine de la recherche : des entreprises comme Google ou Facebook recrutent déjà les meilleurs ingénieurs du monde grâce à leur attractivité et à leurs moteurs de recherche. Grâce à eux, ils entreprennent des recherches sur l’intelligence artificielle, la santé ou le spatial, comme Tesla ou Amazon, dont les budgets de R&D sont nettement supérieurs à ceux de la plupart des États du monde, excepté les deux ou trois plus puissants. Ils ont acquis une puissance et une influence si considérables que certains pays comme le Danemark ou la France ont nommé des « ambassadeurs numériques » auprès d’eux ! Cette nouvelle forme de diplomatie numérique incite souvent les États à négocier avec eux plutôt que d’encadrer leurs activités par des lois et réglementations. Certes, ce laxisme des États face aux activités sans contre-pouvoir des Gafam est de plus en plus remis en question, mais cette réaction des États arrive avec au moins une décennie de retard... Les pouvoirs étatiques n’ont jusqu’alors jamais tenté d’imposer une régulation d’Internet, ni d’encadrer les activités de ces firmes dont le soft power est supérieur à celui de la plupart des nations souveraines. Et elles interfèrent même à présent sur le hard power étatique puisqu’une part croissante des conflits se déroule sur les réseaux sociaux et le Net. Ce pouvoir des Gafam revêt également une dimension idéologique et sociétale, car ils ont les moyens d’imposer leur vision libérale-libertaire du monde en implantant dans les consciences, via un consumérisme hédoniste, les dispositions addictives de leurs produits, modes et idées, ainsi que leur sans-frontiérisme et la doxa woke. Avec les Gafam et leurs émules, la taille critique de l’échange d’informations est en effet devenue le monde lui- même : ils se veulent « tout public », d’où l’expression de Benjamin Barber McWorld. Alors que les pionniers de la première génération (Microsoft, Oracle, Netscape, Nokia...) s’adressaient à des publics spécialisés (professionnels, geeks, etc.), les prestataires de la deuxième génération se veulent vraiment globaux en s’appuyant sur des réseaux sociaux couvrant aussi bien la vie privée que professionnelle, les enfants, les retraités. Un autre aspect de l’échange d’informations est l’uniformisation culturelle et notamment des styles de vie. Si la jeunesse nord-coréenne est privée d’une grande partie des produits et services sous licence américaine, elle n’en consomme pas moins – pour les plus fortunés, certes – des hamburgers et des jeans et utilise des clones d’iPhone, de Google et de Facebook. Multinationales prédatrices et capitalisme ubérisé : l’émergence d’un nouveau sous-prolétariat Incontestablement, les Gafam sont l’expression même de la puissance McWorld, cet empire d’expression anglo-saxonne qui défie les États et ubérise la société en justifiant ses prédations sociales et économiques et sa création d’un uber-précariat par l’idéologie transnationaliste. Certes, au tout début de sa présidence, Joe Biden a lancé le chantier ambitieux de mettre au pas fiscalement ces empires nomades en réclamant, conformément aux demandes de l’OCDE, une augmentation drastique des seuils d’imposition minimaux des Gafam, entreprises qui ont le plus profité de la pandémie mondiale. Ils sont désormais sommés de payer et de plier aux lois et prérogatives des États souverains. Le combat est toutefois loin d’être terminé. La généralisation du télétravail n’a pas fait que ruiner les investisseurs de l’immobilier professionnel, avec son cortège de bureaux abandonnés, mais elle a de facto obligé les employés à mettre leur domicile à disposition de l’entreprise, ce qui implique des factures d’électricité et d’énergie accrues, et a entraîné un coût social non encore évalué à sa juste mesure : dépressions, désocialisation, obésité accrue, alcoolisme, dépendance, violences conjugales. Du point de vue des fameux « acquis sociaux », le passage au télétravail va aboutir à délocaliser virtuellement encore plus que jadis, comme cela se passe déjà avec les centres d’appels délocalisés au Maroc ou en Tunisie, et il va accroître la pression à la baisse sur les salaires des pays avancés comme la France. Ce processus est inévitable, car quitte à payer un employé à distance, autant le recruter là où il est le moins cher, ce qui annonce un dumping social via la digitalisation qui va de pair avec l’ubérisation des métiers permis par les applications web de la Silicon Valley. De la même manière, le principe de l’autoentrepreneuriat, qui séduit au départ un jeune au chômage hostile à la hiérarchie directe, annonce la fin du marché national du travail, le dumping salarial et la précarisation des emplois, certes ainsi moins fiscalisés, mais analysables comme une régression en termes de protection sociale. Ces externalités sociales créées par les plates-formes des multinationales de l’ubérisation bouleversent totalement l’ordre social et réglementaire, réduisent les protections et même le droit du travail, puis inaugurent ainsi un nouveau sous-prolétariat ubérisé dont les retraites seront quasi inexistantes. Le poids de la plate-forme de livraison logistique d’Amazon, par ailleurs, est si fort qu’il impose de facto un dumping des prix qui ruine les concurrents locaux nationaux ainsi écrasés et remplacés par des autoentrepreneurs locaux ubérisés qui cotisent peu et rapportent plus aux Gafam. Cela a donc instauré une incroyable fracture entre, d’une part, l’économie nationale classique caractérisée, comme en France, par une relation au travail compliquée mais sécurisée et réglementée et, de l’autre, la nouvelle économie ubérisée des plates-formes et des autoentrepreneurs qui travaillent pour elles et qui permet, certes, à des personnes très peu qualifiées d’acquérir des emplois et qui n’ont pas pu être gérés par le monde de l’économie classique. Ainsi, sur 800 000 entités d’autoentrepreneurs créées par an, 30 % travaillent avec ces plates-formes ou vont être hybridées, comme un taxi qui est à mi-temps Uber. Ce capitalisme ubérisé ou de plate-forme, qui consiste à digitaliser à outrance les activités de services, jadis contrôlées de façon éclatée mais réglementée nationalement, est révolutionnaire : une plate-forme comme Airbnb, bien que ne possédant presque aucun actif et aucune infrastructure, et qui met simplement en contact, grâce au Web, clients et hébergeurs, est d’ores et déjà la première entreprise d’hébergement dans le monde, loin devant les conglomérats hôteliers. Elle ne génère toutefois pas de valeur ajoutée et enrichit des milliardaires en prélevant juste pour cela 20 à 30 % des gains des hébergeurs privés, concurrence redoutable pour les hôteliers classiques obligés d’accepter, pour ne pas disparaître, de baisser leurs prix et de tirer les vrais salaires de leurs employés vers le bas. L’autre exemple est offert par Booking, plate-forme hébergée aux Pays-Bas, qui vampirise quant à elle les hôtels, de facto obligés de suivre cette spirale du dumping des prix. Le bras de fer entre les cryptomonnaies et les États Défendues par les adeptes d’un projet d’une mondialisation libertaire, les cryptomonnaies, fruits des technologies NTIC et de la blockchain, sont également au cœur de la nouvelle économie mondiale ubérisée. Elles incarnent jusqu’à son comble l’immense défi pour les États souverains qu’est devenue la finance décentralisée et désouverainisée. Nous avons vu dans le chapitre consacré aux mafias et aux CTO qu’elles sont déjà utilisées par toutes les entités qui veulent échapper au contrôle des États et/ou à la justice. Cela explique pourquoi les puissances souverainistes les plus opposées à McWorld, notamment la Russie et surtout la Chine, ont banni les cryptomonnaies occidentales ou liées aux Gafam et ont créé leurs propres monnaies virtuelles sous le contrôle de leurs banques centrales en les indexant à leur devise officielle. Rappelons tout d’abord qu’une cryptomonnaie est une forme d’« actif virtuel », suivant la définition du Gafi, qui repose intégralement sur la cryptographie, qu’il s’agisse de leur création (le processus de « minage »), de leur rôle de réserve de valeur, ou de la sécurité du système de paiement. La plus célèbre est le bitcoin, fondé sur la blockchain 16 . Le but officiel était au départ de créer une monnaie, ou plutôt un moyen de transaction indépendamment des banques centrales, des États et du système bancaire traditionnel. De ce fait, ces monnaies posent la question du danger et des conséquences de l’affranchissement des leurs opérateurs vis-à-vis des émetteurs des États. Ces cryptomonnaies ont gagné en popularité en très peu de temps. Le bitcoin a vu sa valeur s’envoler en un temps record : entre janvier et décembre 2017, son cours a bondi de 2 000 %, passant de 953 à 20 089 dollars 17 . La capitalisation des cryptomonnaies oscillait, début janvier 2021, autour des 850 milliards de dollars (toutes cryptomonnaies comprises 18 ). On comprend pourquoi autant de personnes ont décidé d’y investir. Cependant, tandis que la valeur du bitcoin ne cesse de fluctuer et que des investisseurs opportunistes espèrent faire fortune en peu de temps, le risque de fraude grave augmente en parallèle. Les vols par des cyberattaques sont récurrents, et il est presque impossible de tracer et retrouver les fonds volés. De plus, les dépôts ne sont pas assurés ni protégés en cas de faillite, et la monnaie numérique n’est pas protégée par des régimes d’assurance-dépôts fédéraux ou provinciaux. D’évidence, si les monnaies classiques adossées à l’autorité des pays ne valent pas grand-chose, une monnaie fondée sur aucune contrepartie et contrôlée par aucune autorité ne vaut rien. Les cryptomonnaies n’ont en réalité de valeur qu’au sein de la communauté qui les utilise. On sait que les trois fonctions de la monnaie sont d’être une unité de compte, un intermédiaire des échanges et une réserve de valeur. Or si le bitcoin remplit les deux premières, il est loin de la troisième, car il n’est fondé sur aucune création de richesses, aucune contrepartie de la masse monétaire ne se trouvant à l’actif d’une banque centrale (or, devises-titres). Les cryptomonnaies peuvent par ailleurs servir de vecteur pour le blanchiment d’argent sale. Un simple dépôt dans un bureau de change, et l’argent sale est ainsi blanchi. Un rapport de l’OCDE sur la sensibilisation au blanchiment de capitaux observe qu’aucune identité n’est liée à une adresse de portefeuille ni à une transaction donnée. L’identité de l’utilisateur peut uniquement être connue du fournisseur du portefeuille ou de la plate-forme d’échange, si l’utilisateur choisit de recourir à de tels prestataires 19 . Certes, la plupart des plates-formes d’échange sont officiellement réglementées par les autorités financières nationales, donc théoriquement soumises aux mêmes conditions en matière de lutte contre le blanchiment d’argent. Cependant, les plates-formes d’échange appelées « pair à pair » permettent de contourner les contrôles et les protocoles d’identification. Ces monnaies, qui garantissent l’anonymat, suscitent naturellement l’intérêt des adeptes de la fraude fiscale, du blanchiment, et même d’opérations terroristes qui s’organisent souvent sur le Web clandestin. Hans-Jakob Schindler explique que « pour se financer, les terroristes ont cherché des alternatives auprès de la cryptomonnaie, dont le bitcoin [...]. La cryptomonnaie a l’avantage d’être accessible au plus grand nombre et comme elle n’est pas considérée comme un actif financier, elle ne peut être ni saisie ni gelée 20 ». Les cryptomonnaies sont donc un des meilleurs moyens de réaliser des transactions sur les marchés du Web clandestin sans que les parties se rencontrent physiquement. Elles sont l’outil idéal des prises d’otages informatiques, via les mails malveillants ouverts par inadvertance qui permettent de capter et crypter toutes les données d’un ordinateur et de réclamer des rançons en bitcoin pour les récupérer. On se souvient aussi de l’affaire Quadriga, cette première Bourse de cryptomonnaie, canadienne, qui servit de moyen de spéculation pour son fondateur, Gerald Cotten 21 , et dont les fonds de dizaines de millions de dollars investis par les clients n’étaient plus disponibles, lui seul connaissant le mot de passe du système... En réalité, l’argent des clients avait été transféré sur les comptes personnels de Cotten qui spécula ensuite sur d’autres plates-formes. Un flagrant démenti des affirmations de ceux qui vantent l’hypersécurisation de l’économie numérique. « Au Canada, les transactions bancaires sont réglementées et protégées, mais une plateforme de cryptomonnaies peut être lancée sans qu’on s’assure d’une chose aussi simple que le mot de passe ne soit entre les mains que d’une seule personne », déplore Gérald Fillion 22 . Certes, si le bitcoin est moins traçable qu’une banque ou qu’une carte de crédit, il l’est tout de même plus que d’autres monnaies encore plus anonymes, comme le monero, qui masque l’identité de l’expéditeur par le mixage de plusieurs transactions à la fois. Ceci rend ces cryptomonnaies totalement intraçables grâce à des clés à usage unique pour les paiements individuels, et en fait des instruments extrêmement attractifs pour les activités criminelles. Pour ce qui est des ransomwares, c’est-à-dire lorsque banques, avocats, notaires, architectes, hôpitaux, entreprises ou municipalités subissent les assauts de criminels dits « rançongiciels », ou lorsque les données essentielles du réseau informatique de sociétés du CAC 40 sont encryptées par le virus-cheval de Troie ransomware, les cryptomonnaies les plus utilisées sont le bitcoin, le monero et le zcash. L’un des grands experts des cryptomonnaies, dont l’entreprise gère la sécurité informatique de plusieurs d’entre elles et qui a cofondé la cryptomonnaie africaine « afro », David Nataf, précise que « si les demandes de rançon sont souvent effectuées en bitcoins, les cybercriminels changent immédiatement ces derniers en monero ou en zcash, qui ne respectent pas du tout les normes des États, contrairement au bitcoin ». Il précise que d’autres cryptomonnaies ou utility coins qui respectent scrupuleusement des chartes et qui sont sécurisées par la blockchain peuvent en revanche être vertueuses et se conformer aux lois des États. « Ce sont en fait les escroqueries spéculatives occultes et les cryptomonnaies sans projet et sans application réelle qu’il faut bannir, pas l’innovation qui fait progresser la liberté des nations, combat le crime par la transparence 23 . » Il ajoute de façon ironique que, depuis des décennies, « la monnaie qui absorbe le plus de transactions criminelles et qui sert le plus à blanchir de l’argent sale, avec des montants immensément plus élevés que celui des cryptomonnaies, demeure le dollar »... Dans des pays en banqueroute ou en crise grave, les cryptomonnaies peuvent prendre la place du système bancaire traditionnel et national, comme l’a souvent fait jadis le dollar (Argentine, Liban, etc.) en cas de crise majeure. Ainsi, en 2019, au Venezuela, lorsque l’inflation est montée à 9 585,5 %, suite à la gravissime crise économique, financière et politique survenue dans le pays autour de la réélection controversée de Nicolás Maduro en 2018, nombre de Vénézuéliens ont abandonné le bolivar au profit des cryptomonnaies, en particulier le bitcoin, demeuré à l’abri des conséquences des décisions du Gouvernement 24 . En août 2020, la plate-forme B2B LocalBitcoins a ainsi connu une hausse historique de 50 % : les échanges y ont représenté un montant record de 5 millions de dollars américains. Vingt mille points de vente dans tout le pays ont alors accepté le bitcoin comme monnaie de paiement. En réponse, le gouvernement du président Maduro a dû créer sa propre cryptomonnaie nationale, le « petro », dans le but de contourner l’embargo américain 25 . Dans certains pays, les monnaies virtuelles séduisent de plus en plus, car elles peuvent favoriser le processus d’intégration monétaire et constituer une monnaie alternative plus fiable qu’une monnaie souveraine trop dévaluée. Ainsi, début juin 2021, le Salvador a adopté le bitcoin comme seconde monnaie nationale au côté du dollar salvadorien. Le Mexique est lui aussi en train de l’adopter comme sa deuxième devise officielle nationale. En Afrique, les cryptomonnaies ont également le vent en poupe, parfois pour le pire (rançonnage informatique, évasion fiscale, blanchiment) ou pour le meilleur (voir infra). Le Nigeria totalise ainsi à lui seul 8 % des transactions mondiales de bitcoin, et les monnaies virtuelles gagnent également du terrain au Kenya ou en Égypte, qui y voient une assurance contre la hausse due à l’inflation. On peut également mentionner le succès naissant de l’afro, qui est en train d’être agréé par plusieurs États africains. L’afro est la première blockchain ayant été adoptée pour une mission de service public gouvernementale et dont la traçabilité s’ajoute au fait que, contrairement à d’autres, les gains sur les transactions sont reversés aux États dans le cadre d’accords de coopérations comme celui signé en 2021 avec la poste de Côte d’Ivoire. Toutefois, la stabilité des monnaies virtuelles les plus fiables et traçables, comme le bitcoin, n’est pas forcément une garantie éternelle pour les États défaillants qui y voient une solution contre leur monnaie souveraine : en mai 2021, la décision d’Elon Musk de refuser subitement les paiements en bitcoin, qui a fait s’écrouler d’un coup la valeur de celui-ci sous la barre des 40 000 dollars (30 % de perte), a démontré la grande instabilité de ces monnaies. Excepté des cas comme l’afro, ces monnaies servent trop souvent à contourner le système financier officiel et participent de la sorte à son affaiblissement : si tout le monde venait à utiliser les cryptomonnaies pour le stockage et la transaction d’argent, plus aucune règle internationale de contrôle et de réglementation ne serait en vigueur. Par exemple, avec sa cryptomonnaie « libra » – que la firme digitale voulait adosser à un panier de monnaies et d’actifs sûrs en créant l’équivalent du DTS, les droits de tirage spéciaux du FMI totalement virtuels –, Facebook ambitionnait de gérer (ou contrôler) tous les flux d’argent de la vie quotidienne. L’objectif démesuré de ce géant des Gafam, s’il était atteint, aboutirait à acquérir un pouvoir inouï en remplaçant le système en place, ce qui pose la question de la souveraineté des États dans lesquels la monnaie serait utilisée 26 . La France, l’Allemagne et l’Italie se sont d’ailleurs fermement opposées à l’instauration de la libra, le risque étant qu’une entreprise multinationale privée acquière la même puissance monétaire que celle de l’État qui, lui, reste soumis au contrôle démocratique et judiciaire. Il est vrai que, contrairement à une cryptomonnaie étrangère, les monnaies souveraines contrôlées par les banques centrales des États permettent aux gouvernements de collecter des impôts. La réponse en cours des États souverains consiste à plus inciter leurs banques centrales à créer des monnaies numériques parallèles. Un des premiers exemples a été offert par la Chine, avec le yuan numérique, ou « e-yuan ». Ainsi, après avoir interdit les paiements et le minage de bitcoins et autres cryptomonnaies sur son territoire, considérés comme menaçants, les autorités chinoises les ont remplacés par une cryptomonnaie souveraine. À terme, la Chine ambitionne de concurrencer les cryptomonnaies occidentales tout en contrôlant les flux. Dans la même logique, mais avec une efficacité bien moindre, la Banque centrale européenne (BCE) songe à lancer un e-euro pour contrer les cryptomonnaies privées hors contrôle 27 . L’autre tendance consiste à conclure avec les Gafam et autres créateurs de cryptomonnaies, parfois dans le cadre de rapports de force, des accords de non-nuisance réciproque et de délimitations des rôles. En conclusion, il est clair que les États, loin d’être impuissants, ont les moyens d’empêcher les opérateurs de monnaies virtuelles d’empiéter sur leurs prérogatives régaliennes, s’ils le décident... Liberté individuelle, espionnage En dépit de l’apparente gratuité, les Gafam et autres multinationales déterritorialisées font d’abord des affaires et s’enrichissent avec la publicité omniprésente et le pillage des données personnelles des citoyens et usagers, le plus souvent à leur insu, à des fins de marketing. Le fait que ces entreprises aient un monopole international et un libre accès aux données de millions, voire de milliards, d’utilisateurs signifie que les Gafam sont aujourd’hui capables de connaître toutes nos habitudes et de traiter nos données avec ou sans notre accord, sans que cela puisse réellement être vérifié. Au cours de la dernière décennie, ces firmes ont étendu considérablement leur territoire. En prenant d’abord le contrôle des smartphones : Android de Google et iOS d’Apple se sont imposés comme les seuls systèmes d’exploitation de nos appareils. Ils sont devenus la porte d’entrée d’Internet, en contrôlant notamment les magasins d’applications mobiles. Grâce à son moteur de recherche puis à YouTube et à son assistant vocal, Google a amassé une quantité astronomique d’informations sur les internautes, un atout qui lui permet de dominer la publicité en ligne. Cette capacité de ciblage est égalée seulement par Facebook, avec Amazon en embuscade, grâce aux informations sur les achats de ses clients et son majordome vocal, Alexa. Cette montagne de données permet à ces groupes de dominer le secteur émergent de l’intelligence artificielle, avec des services qu’ils monnaient aux autres entreprises via leurs filiales de location de serveurs à distance. Mais aussi d’avoir un avantage significatif pour pénétrer d’autres secteurs, comme l’automobile et la santé. Apple, Google, Facebook et Amazon ont aussi bouleversé les médias avec leurs services de streaming de vidéos et de musique. Songe-t-on ainsi que l’émission d’identité, aujourd’hui prérogative des États, pourrait bientôt tomber entre leurs mains ? Les Gafam ont d’innombrables moyens de vérifier plus sûrement que les États notre identité, au travers d’empreintes biométriques et digitales (yeux, voix, vitesse et mode de frappe sur un clavier...), du traçage de nos déplacements et destinataires de nos messages ou de notre façon de naviguer, etc. Il est ainsi probable qu’un passeport soit prochainement jugé moins fiable qu’une identité certifiée par Apple 28 ... Le premier front ouvert par les grandes démocraties est celui de la protection des libertés individuelles. Les Gafam ont récupéré tout ce qu’il est possible de savoir sur les hommes et les femmes qui ont, une fois dans leur vie, touché une souris d’ordinateur. Ils exploitent nos données grâce aux algorithmes très performants d’Amazon, Google ou certaines agences de voyages qui gèrent les publicités adaptées aux divers profils et modifient même les prix sur les différents sites de vente en ligne pour nous faire acheter plus, plus cher. Ainsi, Internet et les réseaux sociaux permettent aux entreprises internationales de prendre le contrôle de nos désirs, de vendre nos données personnelles au plus offrant en contournant les droits des citoyens et les prérogatives des États, imposant ainsi une concurrence déloyale aux petites entreprises qui ne peuvent survivre face à l’ubérisation généralisée. Elles sont également, via les réseaux sociaux et l’incontrôlabilité du Web, de formidables instruments de manipulation de l’opinion publique. La collecte de ces données est devenue le modèle économique de ces géants technologiques, qui les vendent à des tiers. Dans la plupart des cas, sans le consentement explicite de leur utilisateur ou sans l’en avertir clairement. Ce business a été révélé lors du scandale Facebook/Cambridge Analytica quand 30 à 70 millions d’utilisateurs Facebook ont vu leurs données recueillies sans leur consentement en passant par un quiz qui a absorbé non seulement leurs informations personnelles mais aussi celles de leurs amis. On peut aussi citer le scandale de l’enseigne H&M qui, entre 2014 et 2019, a enregistré les données des salariés d’un site à Nuremberg à leur insu, afin d’établir des profils individuels et un système de surveillance puis de rendre les informations visibles pour une cinquantaine de responsables du groupe. L’enseigne a par la suite été condamnée à une amende de 35 millions d’euros. En relation avec Facebook, de nombreux autres scandales récents ont mis en évidence la dangerosité de ces sociétés hors contrôle. On peut citer l’exemple du piratage, par des hackeurs, de 50 millions d’utilisateurs 29 qui a permis à des cybercriminels de prendre le contrôle de comptes d’utilisateurs et d’accéder à des données personnelles. En 2019, un autre scandale a concerné Facebook, dévoilé dans le Wall Street Journal 30 , lorsqu’on a découvert que la firme recueillait des données personnelles comme le poids, la pression sanguine, mais aussi les cycles menstruels ou les phases d’ovulation, y compris de personnes n’ayant pas de compte Facebook (grâce à des posts et messages)... En 2018, l’agence de presse de Bloomberg dévoilait ainsi un accord secret entre Google et Mastercard aux États-Unis concernant les clients Mastercard américains détenant un compte Gmail et ayant accepté la politique de suivi publicitaire dans les paramètres de leur compte Google. Ceux-ci ont fait l’objet d’un recoupement entre les données bancaires de tous leurs achats et leurs profils utilisateurs. Malgré les nombreuses voix qui se soulèvent contre cette collecte massive de nos données personnelles et les abus, les récents événements suggèrent que cette tendance va continuer à empirer, nos vies étant appelées à être toujours plus digitalisées. L’arrivée de la 5G, qui va multiplier de façon exponentielle les fonctionnalités et capacités de l’économie digitale, contribuera à rendre de plus en plus réel le scénario, jadis de science-fiction, décrit par George Orwell dans 1984. Les Gafam, danger pour les États... sauf pour les deux hyperpuissances qui les ont créés... Si elles offrent des opportunités, obtentions d’informations, échanges et acquisitions de savoirs extraordinaires, en plus du fait qu’elles permettent de « raccourcir les distances » entre les hommes et faire l’économie de déplacements, les multinationales du digital ont aussi leurs zones d’ombre : elles menacent la souveraineté des États, elles sont de plus en plus dénoncées pour leur mainmise tentaculaire sur l’économie mondiale et leur pratique de corsaire fiscal. Leur puissance colossale et planétaire ne découle pas uniquement de leur force de frappe économique mais également de leur capacité à influencer et donc potentiellement à déstabiliser l’ordre international puis à s’affranchir de règles et lois en vigueur dans les territoires soumis au contrôle des États et des juridictions qu’elles défient. Quant aux dirigeants de ces entreprises, ils sont attendus et reçus à chaque déplacement comme des chefs d’État, et ils n’hésitent pas à se poser eux-mêmes comme leurs égaux. En rachetant systématiquement les start-up les plus innovantes susceptibles de les concurrencer, les Gafam créent des situations quasi monopolistiques (« économie de plate-forme »). Leurs dirigeants défient les États dans leur souveraineté et réussissent souvent à imposer leur volonté par le droit fiscal et social, l’éducation, les normes techniques, les choix industriels, mais aussi par le chantage économique, l’obsolescence programmée, l’imposition des standards ou les pratiques anticoncurrentielles. De plus, les Gafam contrôlant tous les flux d’informations peuvent manipuler les opinions et pratiquer l’influence ou la désinformation de masse, à des fins politiques ou idéologiques, en bloquant certaines informations ou certaines personnes, tout en mettant en valeur d’autres. Ils peuvent favoriser l’apparition de certains sites internet plutôt que d’autres lors des recherches dans leurs moteurs. Malgré leurs dénégations publiques, et en dépit des professions de foi politiquement correctes de leurs dirigeants, les Gafam et leurs organismes de censure qui traquent le populisme mais laissent s’exprimer des groupes criminels (drogue, armes, prostitution, etc.), fanatiques, islamistes ou même complotistes et terroristes, ont en fait assez peu de considération pour la protection des lois et de la sécurité des sociétés démocratiques. Réseaux sociaux, entre trop grande liberté et néocensure très orientée... Donald Trump, définitivement interdit sur Twitter, mais pas Recep Tayyip Erdoğan, Mahathir Mohamad ou les plus grands prédicateurs islamistes ! En réalité, les réseaux sociaux peuvent être de formidables outils de propagande et de désinformation pour maints lobbys, manipulateurs, extrémistes de tout bord, y compris des islamistes radicaux et des djihadistes, et pas seulement les « populistes », ainsi qu’on l’observe notamment sur Instagram, Twitter ou Facebook, où des « influenceurs » islamistes ont des dizaines de millions d’abonnés. Une étude de la Brookings Institution a démontré qu’au moins 46 000 comptes Twitter ont été liés à l’État islamique entre septembre et décembre 2014, et que 9 200 autres sont toujours directement liés à des groupes djihadistes, la firme digitale n’ayant jamais voulu les faire disparaître une bonne fois pour toutes. Les comptes soutenant l’EI ont en moyenne 1 000 abonnés, soit « bien plus qu’un compte habituel ». Ils n’ont pas été censurés par les Gafam pendant des années, et il a fallu que les États fassent pression après les vagues d’attentats et crimes contre l’humanité commis par Daesh pour que Facebook et Twitter commencent à réagir, preuve que l’État peut réguler les Gafam s’il le veut. Les cyberdjihadistes continuent toutefois d’y recruter. Twitter est dans ce cas précis le réseau privilégié, car il permet de créer très rapidement un compte facile à suivre dès qu’une autorité impose la fermeture du compte précédent et de poster des liens vers des plates-formes où se trouvent les véritables documents, vidéos ou enregistrements, comme archive.org. Gilles de Kerchove, coordinateur européen chargé de la lutte contre le terrorisme, a ainsi déploré que le « jihad virtuel est favorisé par le phénomène de “l’enfermement algorithmique” : lorsqu’un mot-clé est inscrit dans un moteur de recherche, les algorithmes l’enregistrent et l’internaute reçoit ensuite des contenus similaires. Un individu qui recherche des informations via Internet sur le jihad et l’État islamique reçoit naturellement du contenu faisant écho à sa recherche 31 ». Malgré les avertissements de lanceurs d’alertes et des services de sécurité ou judiciaires de pays inquiets des activités des prédicateurs fanatiques sur les réseaux sociaux, de nombreux comptes sont ajoutés chaque jour qui profitent en fait d’un vide juridique dû au fait que les législations des États ne sont pas adaptées aux nouvelles réalités compliquées du monde virtuel et digitalisé. Parfois, les logiques de Facebook sont étonnantes : les organes de censure de ce géant des Gafam sont très vigilants contre les activistes nationalistes et les suprémacistes blancs, ainsi que les milieux d’extrême gauche ou d’extrême droite antivaccins, à juste titre, mais très peu a été fait contre les milieux islamistes pourtant encore plus hostiles aux démocraties et en général aux États régaliens souverains de tous les pays du monde. Le 8 janvier 2021, suite à l’attaque du Capitole du 6 janvier 2021, et en réponse aux tweets de Donald Trump et aux discussions sur d’éventuelles manifestations armées à Washington DC, Twitter a définitivement banni l’ex- Président américain de sa plate-forme sous prétexte que ses derniers tweets risquaient d’inciter à plus de violences. La firme a également fait supprimer les messages envoyés sur le compte @POTUS, ainsi que sur d’autres comptes. Facebook lui a également infligé une interdiction « indéfinie » jusqu’au jour de l’inauguration. On remarquera toutefois que les réseaux sociaux n’ont commencé à prendre des mesures contre le Président qu’après que le Parti démocrate a pris le contrôle du Sénat, le 5 janvier 2021, la première fois qu’il détient une majorité à la fois à la Chambre et au Sénat depuis une décennie, ce qui lui donne le pouvoir de superviser Big Tech... Par contraste, le président Recep Tayyip Erdoğan, qui dispose sur Twitter de 17,3 millions d’abonnés, et sur Facebook de 9 805 204 « j’aime » et plus de 10 millions d’abonnés, n’a jamais été censuré alors qu’il a provoqué des violences et répressions bien plus meurtrières et volontaires que son homologue américain. Malgré maintes provocations, insultes, menaces proférées contre plusieurs pays et appels à la haine ou au négationnisme, il n’a jamais été suspendu sur les grands réseaux sociaux. Erdoğan a pourtant fait bien pire que Trump : il a muselé l’opposition et la presse depuis 2017, s’est fait accorder les pleins pouvoirs, son gouvernement « national islamiste » a fait massacrer les Kurdes en Syrie, tente de s’emparer des eaux souveraines et du gaz de la Grèce et de Chypre du Nord, occupée, nie activement le génocide arménien, a fait envoyer en Libye et en Azerbaïdjan des djihadistes recrutés en Syrie, appuie le mouvement terroriste palestinien Hamas à Gaza et a même soutenu Daesh entre 2014 et 2016 et al-Qaida en Syrie jusqu’à présent, puis a lancé en octobre 2020 une campagne mondiale de haine contre la France et Emmanuel Macron... L’ex-Premier ministre malaisien, Mahathir bin Mohamad, connu pour ses positions antisémites et négationnistes et ses récents appels au meurtre, dispose de 3 668 228 « j’aime » et de 4 millions d’abonnés sur Facebook, et de 1,3 million sur Twitter. Il a pu écrire le 29 octobre 2020, sur Twitter et sur son blog, après la décapitation de Samuel Paty, que « les musulmans ont le droit d’être en colère et de tuer des millions de Français ». Le pire est que ce texte a été maintenu dans un premier temps par les autorités de régulation de Twitter, qui ont invoqué un « intérêt pour le public », tout en l’accompagnant d’un avertissement, et la firme a fini par retirer le tweet sous les pressions des États, mais sans pour autant supprimer le compte de celui qui appelle au meurtre... Twitter connaissait pourtant depuis longtemps son radicalisme islamiste antioccidental : lors de son discours d’ouverture du dixième sommet de l’Organisation de la Conférence islamique des 16-18 octobre 2003, Mahathir tint des propos ouvertement antijuifs et complotistes en affirmant que « quelques millions de juifs ne sauraient triompher d’un milliard trois cents millions de musulmans ». Et face aux réactions d’indignation venues du monde entier, Mahathir récidiva peu après : « Eh bien, que le monde ait réagi ainsi démontre qu’ils [les juifs] contrôlent le monde. [...] Israël est un petit pays. Il n’y a pas beaucoup de juifs dans le monde. Mais ils sont arrogants au point de défier le monde entier [...], ils tiennent de nombreux médias qui présentent les choses de manière complètement unilatérale et influencent beaucoup de gens » (30 octobre 2020). Mais ni Twitter ni Facebook n’ont jugé bon depuis son dernier appel au meurtre de « millions de Français » de fermer ses comptes... On peut également citer d’autres preuves de ces deux poids deux mesures : l’émir du Qatar, Tamim Al Thani, qui dispose de 925 000 abonnés sur Twitter, n’y a jamais été censuré, bien qu’il ait soutenu les révoltes des Frères musulmans depuis le printemps arabe qui ont déstabilisé plusieurs États, et bien que son pays ait appuyé et financé maints groupes djihadistes dans le monde. L’homme fort de Tchétchénie, Ramzan Kadyrov, avec 400 000 abonnés sur Facebook, a simplement été brièvement suspendu en 2017 mais jamais banni des réseaux sociaux alors qu’il a appelé à massacrer les homosexuels, les blasphémateurs, commis des carnages et récemment gravement insulté et menacé le président Emmanuel Macron et la France suite à la décapitation de Samuel Paty par un Tchétchène (16 octobre 2021). Son protégé, le champion d’arts martiaux Khabib Nurmagomedov, Daghestanais, qui a « prié pour que Macron soit défiguré », ainsi que « tous ses disciples de la liberté d’expression », continue librement de communiquer avec ses 25 millions d’abonnés sur Instagram et n’a jamais été lui non plus banni des réseaux sociaux... Dans un autre registre, Nicolás Maduro, le révolutionnaire bolivariste, successeur de Hugo Chávez, qui a empêché le processus démocratique, ruiné et conduit son pays à la guerre civile, muselé l’opposition et fait exécuter des milliers de personnes, n’est pas censuré : sur Facebook, il a 977 634 mentions « j’aime » et 1,2 million d’abonnés, et sur Twitter près de 4 millions d’abonnés. Récemment, un tweet du Guide suprême de la révolution islamique iranienne hostile aux vaccins a été supprimé sur ses 2 comptes (335 000 et 880 000 abonnés), mais le dictateur théocratique du régime iranien, Ali Khamenei, qui a appelé si souvent à tuer des « ennemis de l’islam », des opposants et autres ennemis de Téhéran, et dont le régime finance le terrorisme international, n’a jamais été banni des réseaux sociaux ni ses comptes supprimés comme ceux de Trump. L’Arabie saoudite, les Frères musulmans, leur protecteur et financier, le Qatar, ont très rarement été sanctionnés par Twitter, alors que ces pays et organisations professent et diffusent la version la plus fanatique et totalitaire de la charia, et que nombre de prédicateurs wahhabites et fréro-salafistes officiels disposent de comptes sur les réseaux sociaux parmi les plus suivis au monde. Il est vrai que l’Arabie saoudite est l’un des plus importants actionnaires de Twitter 32 ... Autre fait révélateur, en mars 2020, on apprit que le Conseil de surveillance de Facebook et Instagram a intégré en son sein le Prix Nobel de la paix yéménite, Tawakkol Karman, militante des Frères musulmans qui s’est fait connaître pour son engagement provoile islamique et durant le printemps arabe par son action révolutionnaire islamiste. Dans un rapport de l’Institut Montaigne intitulé La Fabrique de l’islamisme, on apprend que parmi les 200 comptes au monde ayant le plus de followers figurent 5 abonnements arabophones de prédicateurs wahhabites salafistes. Le rapport mentionne ainsi Muhammad al-Arifi, avec ses 21,4 millions d’abonnés sur Twitter (et 25 millions sur Facebook), ce qui fait de sa page le premier compte saoudien et le premier abonnement religieux du monde et le 86 e mondial tous tweets confondus. Ce docteur en théologie, qui enseigne à l’université du Roi-Saoud de Riyad, justifie notamment le droit pour les maris de battre leurs femmes et le meurtre des apostats. On trouve ensuite le théologien Ayid al-Qarni, qui, avec 19 millions d’abonnés Twitter, professe l’idéologie salafiste du Sahwa qui rejette les valeurs occidentales et vante la même charia totalitaire antimécréants ; le Saoudo-Palestinien Ahmad Al Shugairi, 18 millions de followers, qui prône le salafisme obscurantiste et la haine envers les mécréants dans de nombreuses émissions de télévision religieuses ; Salman al-Ouda (14,2 millions d’abonnés), proche des Frères musulmans, qui anime le site Islam Today, le Koweïtien Mishari Rashid Alafasi (16 e position, avec 14 millions d’abonnés), récitateur du Coran, expert en nasheeds, chants islamiques interdisant les instruments de musique très prisés par les djihadistes. Tous diffusent une conception du monde chariatique liberticide hostile aux non- musulmans, vus comme inférieurs ou/et hostiles, aux apostats et aux blasphémateurs promis à la peine de mort. Du côté des prédicateurs frères musulmans, le plus célèbre et populaire d’entre eux, cofondateur des grandes associations fréristes occidentales et téléprédicateur vedette d’Al Jazeera, Youssef al-Qardaoui, dispose de 3 millions d’abonnés sur Twitter et de 642 362 sur Facebook. Ses comptes n’ont jamais été définitivement bloqués, alors qu’il a écrit des ouvrages et lancé maintes fatwas incitant à tuer les apostats, les juifs, les homosexuels, les blasphémateurs, les adultères et les dirigeants arabes laïques nationalistes, puis a justifié les attentats suicide... L’un de ses disciples en Europe, Tariq Ramadan, petits-fils du créateur des Frères musulmans, Hassan al-Banna, n’est ni censuré ni interdit sur Twitter, où il a 702 000 abonnés, ou sur Facebook, avec ses 2 233 408 « j’aime » et ses 2 324 900 abonnés. Son frère, Hani Ramadan, qui continue de codiriger la principale association des Frères musulmans en Suisse, qui a souvent été signalé par les renseignements et les polices françaises et suisses pour son radicalisme, justifie les répudiations, la lapidation, l’infériorité des femmes et autres mesures totalitaires chariatiques, dénonce en permanence Israël, le sionisme et les intellectuels juifs, n’est pas plus censuré sur Twitter (5 665 abonnés) que sur Facebook (16 626 « j’aime » et 16 800 abonnés). Proche de ces derniers, le prédicateur islamiste frère musulman, Hassan Iquioussen, antisémite notoire et fanatique traqueur de sionistes, diffuse quant à lui tranquillement son venin idéologique depuis 2009 sur Twitter, où il a 2 500 abonnés et surtout sur Facebook, où il en a 144 000. Oligopole des Gafam face au Big Brother chinois des « BATX » Face aux Gafam et aux Natu occidentaux, pour l’heure encore les plus puissants, se dressent les équivalents concurrents chinois BATX (Baidu, Alibaba, Tencent, Xiaomi). Ces géants ont été créés au départ dans le but de limiter en Chine l’influence et le contrôle des Gafam américains, puis de les concurrencer au niveau mondial sur leur propre terrain. Les deux groupes de multinationales digitales se livrent depuis une véritable guerre géoéconomique, financière et idéologique planétaire, chacun véhiculant des intérêts et des valeurs opposés et entretenant des rapports étroits avec les services de renseignements respectifs. Ils s’infiltrent discrètement dans l’économie mondiale en rachetant des entreprises de tous les pays, notamment occidentaux, ou en nouant des partenariats visant à créer de véritables monopoles. Même s’ils l’ignorent le plus souvent, les utilisateurs de Paytm, de Bigbasket (en Inde), de Tokopedia (en Indonésie), de Lazada (à Singapour) ou encore de Trendyol (en Turquie) sont en réalité des clients d’Alibaba, géant chinois. Créé en 2000, le moteur de recherche Baidu a quant à lui longtemps été cantonné au marché chinois. Sa valeur sur les marchés est certes encore loin d’égaler celle d’Alphabet, la maison mère de Google, mais il est déjà le quatrième site le plus visité du monde, et ses techniciens sont à la pointe du progrès en matière d’intelligence artificielle et de voitures autonomes. À l’instar de l’outsider géopolitique, stratégique et technologique chinois, qui défie de plus en plus et cherche à terme à dépasser le numéro un américain, les rapports de force peuvent évoluer très vite et les BATX chinois pourront un jour s’imposer au niveau mondial. Alibaba est d’ores et déjà le concurrent direct le plus redoutable d’Amazon, et le premier distributeur mondial, devant Walmart. Son atout principal est un système de paiement en ligne à la fiabilité reconnue : Alipay. Mais le conflit sino- américain concerne également le domaine du développement de la technologie 5G. La guerre froide sino-américaine et l’enjeu géoécomique majeur de la 5G La 5G est la cinquième génération de technologie de réseau mobile, qui permet une « hyperconnectivité », censée être dix fois plus rapide que la 4G. En fait, la 5G n’a pas seulement pour objectif la vitesse du réseau, mais aussi la possibilité d’interconnexion des services et objets comme les véhicules sans conducteurs, les robots, les villes intelligentes (smart cities), la reconnaissance faciale ou encore la télémédecine. D’après l’entreprise américaine Qualcomm, la 5G devrait générer des ventes de l’ordre de 13 200 milliards de dollars d’ici 2035 33 . Il est vrai que le nombre de téléphones portables explose littéralement : on compte plus d’un abonnement mobile par habitant sur terre, et selon la Banque mondiale, on dénombrait déjà environ 104 abonnements mobiles pour 100 habitants dans le monde en 2018 34 ! De quoi faire la fortune des géants des télécoms comme Apple (leader des smartphones aux États-Unis), Samsung (leader en Europe) ou Huawei (dominant en Chine). Jusqu’alors, les standards étaient créés et imposés par l’Occident, en particulier les États-Unis, ce qui leur permettait de contrôler la majorité des communications mondiales via leur agence de renseignements, la NSA 35 , et les accords de coopération d’échanges d’informations et d’espionnage mondial des câbles transportant les communications sous les mers et océans, conclus entre les cinq pays anglo-saxons « Five Eyes », sous l’égide de la NSA (réseau Echelon et Prism). Diverses polémiques de collecte de données et/ou d’espionnage par la NSA ont d’ailleurs été rendues publiques par l’affaire Snowden 36 . De son côté, la Chine est déterminée à avoir ses propres systèmes de télécommunications, de réseaux sociaux et de téléphonies mobiles dans un double intérêt : que cela rapporte à l’économie chinoise et prémunisse la Chine de l’espionnage mondial anglo-saxon préjudiciable à la sécurité nationale et à la souveraineté. Le conflit sino-américain autour de la 5G, et plus globalement autour de l’enjeu stratégique de demain, a pris forme lorsque Donald Trump, à peine arrivé à la Maison Blanche en janvier 2016, a voulu « rendre sa grandeur à l’Amérique », notamment en réduisant le déficit commercial avec la Chine qui allait atteindre un niveau record deux ans plus tard : 621 milliards de dollars en 2018, son plus haut niveau en dix ans. Pour Donald Trump, cela était dû à la concurrence déloyale chinoise, il s’agissait donc pour lui de faire pression sur Pékin afin de pouvoir négocier un accord commercial à l’avantage de Washington. Début 2018, les taxes américaines ont ainsi commencé à être augmentées sur les panneaux solaires en provenance de Chine, puis sur l’aluminium et l’acier (25 % de taxes annoncées sur les importations d’acier et 10 % sur celles d’aluminium). La Chine a ensuite contre-attaqué en taxant 128 produits américains. États-Unis et Chine se sont rendus coup pour coup, et en mai 2019, Washington a augmenté les droits de douane pour un montant total de 200 milliards de dollars. Ce conflit commercial et les enchaînements de représailles réciproques ont fait craindre une réduction de l’investissement des entreprises, une perturbation des chaînes d’approvisionnement et donc un ralentissement de la croissance avec, à l’issue, une augmentation des coûts pour les producteurs et les consommateurs. D’après la présidente du FMI, Kristalina Georgieva 37 , une guerre commerciale pourrait coûter 700 milliards à l’économie mondiale. En réalité, l’objectif des Américains, et pas seulement de Donald Trump, inquiets de la montée en puissance de la Chine, est d’empêcher cette dernière de devenir la première puissance mondiale et surtout de ne pas perdre l’hégémonie technologique. Le conflit entre les deux superpuissances s’est donc dirigé vers le secteur des nouvelles technologies entre les Gafam américains et les BATX chinois, auxquels on pourrait ajouter Huawei (entreprise fortement liée au régime communiste de Pékin), au sujet des réseaux sociaux et surtout, actuellement, de la 5G. Les États-Unis ont de ce fait ciblé le géant chinois des télécoms Huawei afin que celui-ci ne puisse plus se fournir auprès des entreprises américaines. Pour la première fois, la domination technologique ne vient pas de l’Occident mais de la Chine, plus précisément du groupe chinois Huawei, créé à Shenzhen. La Chine est en effet déterminée à devenir la première puissance mondiale d’ici 2049, et elle vise clairement le leadership mondial, notamment grâce à la 5G, dont Huawei est l’acteur clé. Le 22 mai 2020, Huawei avait déjà écoulé 15 millions de smartphones compatibles 5G. Ainsi, en juillet 2019, Monaco est devenue « le premier pays 5G au monde » en équipant toute la principauté de 23 sites d’antennes dernière génération. Pour Washington, cette fulgurante expansion de Huawei est inacceptable, le matériel chinois diffusé partout dans le monde ne pouvant que faciliter l’espionnage ou d’éventuelles cyberattaques chinoises. Dès janvier 2018, les États-Unis ont donc réagi en interdisant toute vente de technologie américaine à Huawei (très dépendante du système d’exploitation Android de Google notamment). En décembre 2018, la directrice financière du groupe Huawei, Meng Wanzhou, a été arrêtée au Canada à la demande des États-Unis, accusée de « violation des sanctions contre l’Iran instaurées par les États-Unis »... En représailles, Pékin fait arrêter deux Canadiens en les accusant d’espionnage. Encore un signe que les États peuvent réagir face aux FMN s’ils sont motivés. Dans cette guerre froide géoéconomique sino-américaine, le protectionnisme technologique a rejoint l’affrontement commercial et les tensions militaires en mer de Chine. En 2019, Donald Trump a banni Huawei des futurs réseaux 5G américains. Depuis 2018, chaque pays accuse l’autre d’espionnage dans le contexte de lutte pour la souveraineté technologique, contraignant de facto les autres nations du monde à choisir leurs camps. Ainsi, le 16 mai 2019, l’Australie, le Japon, la Nouvelle-Zélande, Taiwan et les États-Unis ont banni les produits Huawei de leurs réseaux mobiles 38 . Mais d’autres pays comme le Brésil, le Canada ou l’Inde pourraient, à l’avenir, emboîter le pas aux États-Unis. En dehors de Huawei, ce conflit géoéconomique et technologique sino-américain oppose plus largement les Gafam américains aux BATX chinois. Avec ces entreprises, en dehors de l’objectif économique évident, le but stratégique de Pékin est de : 1/ contrôler les réseaux et flux d’informations sur son territoire ; 2/ maîtriser les chaînes et flux d’informations au niveau régional et mondial échappant totalement aux réseaux contrôlés par les États-Unis ; 3/ couper la population chinoise de l’influence occidentale subversive (démocratie, droits de l’homme, libertarisme) qui mettrait en péril à terme la dictature chinoise confucéo-communiste. Bien que les BATX soient encore loin des résultats des Gafam, ils remplissent pour l’instant parfaitement cet impératif de contrôle de l’information au niveau national. La capitalisation boursière des Gafam est encore nettement supérieure à celle des BATX, mais les concurrents chinois commencent à inquiéter : depuis 2018, Tencent a quasiment rattrapé Facebook 39 , avec respectivement 356,7 et 403,9 milliards de dollars. Autre exemple de ce rattrapage rapide : en 2020, l’application TikTok, qui appartient à l’entreprise chinoise ByteDance, a réussi une percée fulgurante à l’international, y compris aux États-Unis, puisque 26 millions d’Américains utilisent la plate-forme. D’où la menace américaine de les interdire dans leur pays. Là aussi, l’Europe se retrouve totalement déclassée et prise en tenailles par tous ces géants de l’information étrangers : sur les dix premiers acteurs de l’informatique via le cloud, où toutes les données sont stockées, le Vieux Continent ne figure sur aucune position, les grands champions étant américains et chinois, avec notamment Amazon Web Service (AWS), qui domine 32 % du marché selon le Synergy Research Group ; Google, qui suit avec 9 % devant le chinois Alibaba (6 %), lui-même suivi par IBM Cloud, Salesforce, Tencent et Oracle. La conclusion peu reluisante pour l’UE est que 84 % du cloud européen est américain, le reste chinois... « Le Yalta des mondes digitaux » En dehors de la Chine, les autres États du monde demeureraient-ils impuissants à freiner, contrôler ou enrayer la puissance des Gafam et leurs sous-jacents idéologiques libertaires consuméristes et « antisouverainistes » portés par leurs réseaux sociaux ? Les autres puissances du monde multipolaire sont-elles capables de contrecarrer ce que les stratèges de Pékin décrivent comme le « nihilisme » hédoniste occidental, menace mortelle pour les démocratures ? En réalité, les Gafam imposent leurs postulats libertaires McWorld uniquement là où des pouvoirs politiques les laissent faire : tout comme la pornographie est totalement bannie sur le Web dans les pays musulmans et la propagande pédophile également bloquée sur le Net en Occident, la Chine, l’Iran, la Turquie ou la Russie bloquent les flux du Net qu’elles ne veulent pas voir arriver dans leur espace de souveraineté virtuel et les réseaux sociaux peuvent y être fermés à n’importe quel instant. Lorsque les États se mettent en travers de leur route, les Gafam n’ont d’autre choix que de s’aligner, car leur but est avant tout de vendre les produits publicitaires sur leurs espaces virtuels et d’attirer de nouveaux utilisateurs en permanence pour croître. La réalité crue est l’instauration d’un « Yalta des mondes digitaux » : deux univers de communication distincts sont en train de s’imposer avec, d’une part, l’univers libéral-libertaire de McWorld, propre aux démocraties occidentales, et, d’autre part, l’univers oriental des démocratures qui soumettent ces Gafam et de la Chine qui les remplace par leur propre « Big Brother » digital des BATX. L’anglais, qui était en passe de s’imposer comme langue des réseaux sociaux dans les années 2000, commence d’ailleurs à reculer sur le Web au fur et à mesure, précisément, de l’extension des réseaux sociaux venus d’autres horizons géocivilisationnels. La communication est sans doute l’élément le plus volatil de la globalisation. La conclusion est que la mondialisation communicationnelle peut échapper à son créateur occidental, et que la modernité devient de plus en plus a-occidentale. La nationalisation des moyens d’information Face aux scénarios posés par nombre d’observateurs qui craignent que les Gafam fassent barrage aux pouvoirs régaliens des États, d’autres analyses, plus cyniques encore, mais réalistes, suggèrent que les choses sont bien plus paradoxales et moins manichéennes qu’il n’y paraît. La preuve imparable que le pouvoir des Gafam est limitable par celui des États qui refusent d’abdiquer leur souveraineté est apportée chaque jour par la Chine maoïste capitaliste : l’Internet y est totalement encadré de façon drastique par un système complexe de censure dénommé « la Grande Muraille électronique » qui bloque automatiquement les réseaux sociaux Facebook et Twitter, ainsi que YouTube et Google. Les entreprises du Digital Big Brother chinois que sont Baidu, Tencent et Alibaba profitent du blocage des rivaux internationaux sur le marché chinois pour développer les réseaux sociaux domestiques comme WeChat et Weibo. Les dirigeants de ces entreprises sont eux-mêmes soumis à un contrôle strict, comme l’a illustré la disparition, pendant plusieurs semaines, de Jack Ma, patron d’Alibaba, après des propos controversés... Même en Europe, les choses sont plus complexes qu’il n’y paraît et le pouvoir des Gafam est plus le fruit du vide digital de l’UE que le résultat d’une hyperpuissance intrinsèque. Des initiatives européennes afin de concurrencer les Gafam américains ont certes pour l’instant échoué : le moteur de recherche Qwant peine à s’imposer quand le projet Galileo de GPS européen a dû se cantonner aux seules applications professionnelles. La seule initiative européenne commune concerne le projet de taxation des Gafam qui n’entravera pas pour autant leur position monopolistique en Europe et leur diffusion d’une contre-société libéral-libertaire en réalité acceptée par les social-démocraties européennes. Les acteurs français du numérique, tout comme les Israéliens – les plus en pointe –, préfèrent généralement s’appuyer sur les Gafam plutôt que les concurrencer. En revanche, dans les États plus « souverainistes », comme la Russie, la démocratie indienne, la démocrature turque, la république islamique d’Iran, les pays arabo-musulmans et d’Asie, des politiques de censure parfaitement assumées bloquent les informations et communications sur les réseaux sociaux et le Net. Et les Gafam préfèrent s’en accommoder plutôt que de risquer d’y être remplacés par les BATX chinois ou autres plates-formes non occidentales moins regardantes sur les valeurs libéral-démocratiques. Bref, les Gafam sont en fait souvent « du côté du manche », ainsi que l’élection de Biden l’a démontré à travers le bannissement subit de son ennemi Trump... Inversement, l’administration de Donald Trump, dont l’élection n’aurait pas été possible sans les réseaux des multinationales digitales, les a soutenus lorsque les concurrents économiques européens ont évoqué au sein de l’OCDE et des G20 des projets de taxation qui visaient en fait des instruments de l’empire américain McWorld. Est-ce aux réseaux sociaux de contrôler l’État ou à l’État de contrôler les réseaux sociaux ? En réalité, s’il est vrai que les entreprises digitales ont une nette préférence, comme la quasi-totalité des journalistes, des stars et du deep state américain – CIA-NSA et lobby militaro-industriel interventionniste compris – pour les démocrates américains, on observera que les Gafam ont attendu d’être certains de la défaite de Donald Trump pour supprimer ses comptes Twitter, Facebook et Instagram, et qu’au début, le Président américain le plus combattu de l’Histoire par l’establishment américain a tout de même pu arriver au pouvoir et « gouverner » à coups de messages tonitruants envoyés sur les réseaux sociaux... L’État a en réalité toujours les moyens de contrôler ces réseaux s’il dispose en son sein d’une majorité suffisante pour le faire. En contrôlant les deux chambres, Biden pourrait réaliser ce que Trump n’a pas pu obtenir. L’Europe, dans ce cas, emboîterait le pas aux États-Unis. Une méthode pour l’administration Biden serait d’imposer aux réseaux sociaux une « éthique citoyenne » et une pratique de l’autocensure au service des principaux projets de son gouvernement : lutte contre les propos haineux, mais aussi information orientée en direction de certains sujets d’intérêt global tels que la lutte contre le réchauffement, et les discriminations. Ces sujets, déjà bien intégrés dans les agendas de grandes firmes (voir le concept de responsabilité sociale des entreprises), pourraient dans ce cas être imposés à l’ensemble des agents économiques dans le cadre d’une communication institutionnelle coordonnée imposant la transition numérique aussi bien que la transition écologique et la préparation aux prochaines pandémies. En conséquence, certains États, dont la France, essaient d’instaurer un premier niveau de taxation sur le chiffre d’affaires en attendant un cadre plus structurant au sein de l’Union européenne ou de l’OCDE. L’Europe est en première ligne sur ce dossier, et des pays comme la France ont proposé de taxer les Gafam sur le chiffre d’affaires réalisé dans le pays où ils travaillent. Certes, une taxe sur le chiffre d’affaires est très différente d’un impôt sur les profits, et en matière fiscale, l’Union européenne a besoin de l’accord unanime de tous les États membres. Or certains pays qui ont tout à gagner en accueillant les Gafam – comme le Luxembourg, l’Irlande et plusieurs États d’Europe centrale et orientale 40 – ne voteront jamais une telle disposition fiscale. En ce qui concerne les États-Unis, l’administration Biden a récemment rouvert le débat de la taxe Gafam. Washington propose ainsi de créer une taxe internationale sur les géants du numérique qui reposerait sur les revenus nets. Signe fort de sa détermination à remettre les géants du digital au pas, la nomination de la juriste Lina Khan à un poste de commissaire à l’autorité américaine de la concurrence (FTC), connue pour être très critique à l’égard des positions monopolistiques des Gafam, ne trompe pas. Et les pays de l'OCDE sont en train de se mettre d'accord sur cela. Notre thèse est qu’il y a bien une reprise en main de la finance et du numérique par les États, mais qu’elle passe par un bras de fer et probablement une alliance entre les deux qui a comme préalable un « recadrage » des multinationales digitales et qui pourrait relancer la croissance. Dans la mesure où la baisse séculaire de la croissance est due à l’absence d’innovations majeures comparables à celles des première et deuxième révolutions industrielles qui ont multiplié par dix, voire par cent, la productivité grâce à l’énergie du charbon, puis du pétrole et à la mécanisation, et sachant que les énergies alternatives comme l’hydrogène, l’éolien ou le solaire sont surtout des technologies de substitution qui n’augmenteront pas très rapidement la productivité, les vrais vecteurs d’une augmentation de la productivité seront les domaines de l’information, de l’intelligence artificielle, de la blockchain, de l’ordinateur quantique et des biotechs. Ce qui leur manque, c’est une cohérence, or celle-ci passe par un modèle centralisé inhérent à l’autorité publique, qu’il s’agisse d’États, d’unions régionales d’États ou de confédérations. Bref, c’est l’État stratège et la puissance souveraine qui, si possible en coopération avec les FMN ou en les recadrant, comme l’a fait la Chine, seront les acteurs majeurs de la relance dans les années à venir, d’autant que l’État demeure, comme on l’a vu avec la crise sanitaire, le seul protecteur de la sécurité et des droits des citoyens. 1. Henry Kissinger, L’Ordre du monde, Paris, Fayard, 2016, p. 327. 2. Bertrand Badie, Un monde sans souveraineté. Les États entre ruse et responsabilité, Paris, Fayard, 1999. 3. Les firmes multinationales/transnationales sont des sociétés privées ou publiques déployées via des filiales sur au moins deux pays ou continents. 4. Classement disponible sur le site de Forbes : www.forbes.com. 5. « Les entreprises de taille intermédiaire concentrent 45 % de l’emploi sous contrôle étranger en France », Statistiques Insee, 5 novembre 2019. 6. Le TTIP en anglais, ou traité de libre-échange transatlantique, est un projet d’accord commercial entre l’UE et les EU créant une zone de libre- échange ou grand marché transatlantique (GMT). En avril 2019, le Conseil de l’UE a autorisé la Commission européenne à ouvrir de nouvelles négociations commerciales avec les EU plus limitées que le projet initial. 7. Cnuced, Rapport sur l’investissement dans le monde, 2020. 8. « Entreprises multinationales et intégrité publique : le rôle des principes directeurs de l’OCDE », communiqué de l’OCDE, mai 2002. 9. « Gafa : l’UE a perdu 5,4 mds de revenus fiscaux », Le Figaro, 14 septembre 2017. 10. « L’évitement fiscal des multinationales en France : combien et où ? », La Lettre du CEPII, juin 2019. 11. « GAFA, GAFAM ou NATU : les nouveaux maîtres du monde », La Finance pour tous, 1 er décembre 2020. 12. S. O’Dea, « U.S. Smartphone Subscriber Share by Operating Platform 2012-2020 », Statista, 25 novembre 2020. 13. Alexandre Baradez, « Google, Amazon... les Gafa sont au plus haut en Bourse, gare aux déceptions ! », Capital, 20 avril 2020. 14. Philippe Bernard, « Les Gafam défient désormais les principaux États du globe. Et ces derniers contre-attaquent », Le Monde, 24 septembre 2019. 15. « Ces incroyables profits d’Amazon pendant la pandémie », Capital, 31 juillet 2020. 16. La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée et fonctionnant sans organe central de contrôle. 17. Stéphane Berlot, « Les dangers d’engranger de la cryptomonnaie », Les Échos, 12 juin 2018. 18. CoinMarketCap : fournisseur de données de cryptomonnaies de référence mondial, https://coinmarketcap.com/. 19. OCDE, Manuel de sensibilisation au blanchiment de capitaux et au financement du terrorisme à l’intention des contrôleurs des impôts, Paris, OCDE, 2019. 20. CAT, Compte-rendu de la conférence internationale sur le terrorisme, op. cit 21. Sead Fadilpašić, « Le cas incroyable de Quadriga : faux comptes et millions de dollars de perdus », Cryptonews.com, 25 juin 2019. 22. Gérald Fillion, « Le risque réel des cryptomonnaies », Radio-Canada, 5 février 2019. 23. La blockchain peut permettre de tracer les vrais médicaments, identifier les faux, inscrire la propriété intellectuelle, fixer des œuvres originales (NFT), servir de registre mondial de propriété foncière, de registre d’inscription de la preuve (Afro), de jeton de téléphone mondial (Elya), de monnaie des objets connectés (Iota), utiliser l’intelligence artificielle pour engendrer une épargne automatisée (Peculium, PCL), et servir de monnaie commune aux grandes fraternités (World Masonic Coin Solidus, WMCS). 24. Kévin Comitogianni, « Le Bitcoin, une valeur refuge au Venezuela », Cryptonaute, 18 septembre 2020. 25. « La course aux cryptomonnaies d’États est lancée », The Conversation, 7 janvier 2020. 26. « Libra : l’UE fait bloc contre le projet de monnaie virtuelle de Facebook », Le Figaro, 8 novembre 2019. 27. « La BCE intensifie ses travaux sur un euro numérique », communiqué de presse de la BCE, 2 octobre 2020. 28. Gilles Babinet, « La fin de l’État-nation ? Partie 2, les méta-plateformes au service du bien commun », Institut Montaigne, 30 novembre 2018. 29. « Facebook victime d’un énorme piratage, 50 millions de comptes touchés », La Tribune, 28 septembre 2018. 30. Sam Schechner et Mark Secada, « You Give Apps Sensitive Personal Information. Then They Tell Facebook », The Wall Street Journal, 22 février 2019. 31. CAT, Compte-rendu de la conférence internationale sur le terrorisme, op. cit. Voir www.consilium.europa.eu/fr/policies/fight-against- terrorism/counter-terrorism-coordinator/. 32. En 2015, le prince saoudien Al-Walid ben Talal est devenu le deuxième actionnaire de Twitter, dépossédant le P-DG de la société Dorsey. 33. « 5G Economy to Generate $13.2 Trillion in Sales Enablement by 2035 », Qualcomm, 7 novembre 2019. 34. Source : Banque mondiale, voir site officiel de l’organisation : donnees.banquemondiale.org. 35. Créée en 1952, la National Security Agency est une des 17 agences de renseignements américaines. Elle a inauguré fin 2013 un data center à Bluffdale (Utah), le plus grand centre d’interception des communications du monde. Avec 10 000 employés et un budget annuel de 10 milliards de dollars. 36. Edward Snowden, ex-consultant de la CIA et de la NSA, a révélé que l’agence espionnait illégalement les Américains et le monde via la surveillance d’Internet, des téléphones et de tous les moyens de communication (Prism), via Facebook, Google, YouTube, Twitter, Instagram scannés par ses méga-ordinateurs. 37. Kristalina Georgieva, « Decelerating Growth Calls for Accelerating Action », 8 octobre 2019, voir site du FMI 38. Claire Jenik, « Quels pays ont banni Huawei de leur territoire ? », Statista, 20 mai 2019. 39. Tristan Gaudiaut, « Les BATX font trembler les GAFA », Statista, 12 décembre 2020. 40. Jean-Marc Sylvestre, « Les GAFA sont devenus tellement puissants qu’ils sont capables de résister à tous les pouvoirs politiques », art. cit. CHAPITRE XIII Crise sanitaire et biotech, l’Europe déclassée ? « La crise due au coronavirus est la première d’un monde postaméricain. » Thomas Gomart La crise sanitaire a touché l’ensemble de la planète. Elle a suscité des réponses nationales non concertées et encouragé les logiques nationales et souverainistes. Elle a accentué la tendance mondiale au multipolarisme puis renforcé le discrédit du multilatéralisme. La pandémie a déjà secoué l’ensemble de la politique et de l’économie mondiales après être sortie de son berceau sino-asiatique. Peu d’événements ont bouleversé le fonctionnement global du monde comme l’a fait cette crise. De plus, la propagation de la Covid a provoqué un électrochoc dans les circuits de la mondialisation avec le ralentissement du commerce international, l’effondrement des économies, la prise de conscience des trop fortes interdépendances créées par la globalisation et le déclassement des économies industrielles occidentales par l’usine du monde chinoise. La pandémie planétaire a eu et continuera d’avoir pendant des années des conséquences géopolitiques majeures. Certains disent qu’il y aura un avant- et un après-Covid-19. En réalité, du point de vue des rapports de force géopolitiques et économiques mondiaux, la crise sanitaire n’aura fait qu’accentuer les grandes tendances observables depuis deux décennies. Elle a été à l’égard de la multipolarisation en cours, à la fois un test et un révélateur pour les nations et les institutions : la Chine « total-capitaliste » (Baverez), sortie vainqueur du fléau sanitaire, qu’elle aurait pourtant transmis à l’humanité – faute d’avoir averti ses partenaires et d’avoir respecté les normes de sécurité des laboratoires P4 de Wuhan 1 –, poursuit sa marche vers l’hyperpuissance. Le multilatéralisme est plus en crise que jamais, et pas seulement l’OMS ou les Nations unies. La Russie et l’Amérique (puis l’Otan) sont toujours à couteaux tirés, les États-Unis et la Chine en marche vers une guerre froide du troisième type. Ils s’accusent mutuellement d’avoir créé ou laissé s’échapper le coronavirus, dans le cadre de ce que des experts ont qualifié d’expériences de modifications de virus en vue de recherches sur les vaccins ou même sur les armes biologiques. Toujours est-il que les puissances émergentes d’Asie ont démontré une supériorité en matière de gestion de la crise, d’efficacité technologique et organisationnelle. Elles continuent d’être l’épicentre de la nouvelle « économie- monde », pendant que l’Occident – réputé à la pointe du progrès et de la bonne gouvernance, mais zone la plus touchée au monde par le virus – poursuit (Europe en tête) son décrochage économique, technologique et géopolitique. Les sommets du G7 et de l’Otan de juin 2021 ont semblé annoncer une reprise en main occidentale et une volonté de relever le défi chinois, clairement désigné par Joe Biden, mais l’avancée industrielle chinoise est difficilement conjurable. La gestion bien plus rapide et efficace de la crise sanitaire par les puissances industrielles et technologiques asiatiques a poussé certains à conclure que l’Occident – surtout la vieille Europe – risquait de plus en plus d’être déclassé, tant du point de vue économique que technologique et scientifique, par les pays de tradition néo-confucéenne holistique, et donc pas seulement par la Chine dictatoriale. L’Asie confucéo-taoïste et industrielle a démontré qu’elle a été plus à même que les démocraties libérales occidentales de faire face à des crises imprévisibles comme la pandémie de la Covid-19. La plus grande propension de ses élites à mener des politiques d’anticipation comme des stratégies de long terme a donné des leçons de vertu et de responsabilité aux démocraties de l’Union européennes engluées dans leurs agendas électoralistes de court terme, paralysées par leurs lourdeurs bureaucratiques et inhibées par leurs états d’âme droits-de-l’hommistes et leur individualisme forcené qui confine parfois à l’anarchie au détriment de l’intérêt général et national. En effet, les pays de l’UE, dont les trois sacro-saintes libertés fondatrices sont celles de la circulation des biens, des personnes et des capitaux, ont été les derniers États à fermer leurs frontières, et ils ont été encore plus lourdement contaminés que l’Inde, les États-Unis et le Brésil, en proportion, faute d’avoir osé rompre leur dogme de « l’ouverture » à la mondialisation, à l’évidence pourtant pas toujours « heureuse ». Inversement, l’Asie « holiste », qui fait primer le groupe sur l’individu et l’efficacité sur la liberté, a été bien plus réactive, bien plus efficacement et plus rapidement que les démocraties libérales occidentales. En Occident, les pays anglo-saxons, qui se sont relevé plus vite que l’Europe de la crise, ont fermé leurs frontières et ont, à la différence de l’Union européenne, privilégié leurs nationaux et vacciné ces derniers de façon bien plus rapide que les pays de l’UE : au moment où ce livre était terminé, le 8 juillet 2021, en France 35 millions de personnes avaient été primo-vaccinées (52,75 %) et 26,35 millions avaient reçu toutes les doses (39,33 %). Des pourcentages similaires à l’Allemagne, l’Espagne, l’Italie, etc. À la même date, le Royaume-Uni comptait 45,6 millions de primo-vaccinés (68,4 %), et 34,2 millions de pleinement vaccinés (51,3 %). L’un des pires élèves de l’Union a été sans surprise la Bulgarie, avec 14,2 % de primo-vaccinés et 12 %... Ce retard des pays de l’UE (excepté les pays scandinaves) par rapport aux voisins brexiteurs s’explique notamment par les lenteurs inhérentes à la bureaucratie bruxelloise et aux prises de décisions à 27 : l’Union a ainsi perdu un mois pour autoriser les vaccins, début janvier 2021, puis un autre à cause d’une désorganisation massive dans la distribution. Le système britannique peu bureaucratique a été en fait bien plus efficace que l’UE pour accorder les autorisations, s’approvisionner en vaccin et déployer rapidement les centres. D’autres pays anglo-saxons comme la Nouvelle-Zélande, qui ressort presque indemne de la crise, avec 11 morts seulement, ou l’Australie, également très peu touchée par la pandémie, l’ont bien mieux combattue que les États providences et ouverts de l’UE : outre leur moindre intégration à la mondialisation et leur éloignement des autres continents développés, leur recette a été la même que les pays nationalistes d’Asie : fermeture des frontières ; isolation drastique des clusters dès le départ, fermeture des aéroports à tous les non-vaccinés. Une recette qu’un seul pays européen, de tradition politique anglaise, Malte, a appliquée (en plus de ses 68 % de pleinement vaccinés). A contrario, l’Europe altruiste, qui avait fourni une partie de ses stocks de masques à la Chine au début de la crise et qui a refusé tant qu’elle a pu de fermer ses frontières par dogme mondialisant, a payé le plus lourd tribut au niveau mondial. État des lieux et chiffres Selon le Congressional Research Service (CRS 2 ), et d’après des études de la fondation Bill Gates, qui travaille étroitement avec l’OMS sur la gestion des pandémies, le coût de la crise due à la Covid-19 pour le monde entier était estimé au moment de la rédaction de cet ouvrage à 30 000 milliards de dollars et 120 millions de pertes d’emploi 3 . Pour le cofondateur de Microsoft, qui avait d’ailleurs averti dès 2015 quant au risque de pandémie mondiale, ce chiffre colossal aurait été bien moindre si les gouvernements avaient anticipé de façon plus responsable. Le milliardaire préconise depuis des années de créer une « force de réaction rapide » de 3 000 professionnels répartis dans le monde, des « pompiers de la pandémie » en alerte en permanence et capables de répondre dans l’urgence à une nouvelle crise sanitaire et de l’éteindre à son début. Il appelle à se préparer aux prochaines pandémies, comme on se prépare à une guerre, ce qui implique d’investir des dizaines de milliards de dollars chaque année afin de « sauver des milliers d’autres milliards » comme on vient de le faire, faute d’avoir pris les mesures nécessaires. « Nous ne pouvons pas nous permettre d’être à nouveau pris au dépourvu. La menace de la prochaine pandémie pendra toujours au-dessus de nos têtes – à moins que le monde ne prenne les mesures pour l’empêcher [...]. Je pense que c’est la meilleure et la plus rentable des polices d’assurance que le monde puisse se payer 4 . » Diabolisé par les complotistes de tout bord, notamment en raison de ses positions provaccins, Bill Gates avait toutefois émis le même diagnostic que celui des services de renseignements américains et français entre 2005 et 2009. Comme pour les maints autres avertissements concernant l’islamisme, l’immigration, le terrorisme ou les mafias transnationales, les services de sécurité n’ont une fois de plus pas été écoutés par les élites politiques dont les décisions sont motivées en premier lieu par les lobbys financiers, les conseils en « Com », et les émotions portées par les médias jugées électoralement utiles... La crise de la Covid-19, vite devenue « 21 », avec ses moult variants, a mis à jour les manques de solidarité dans l’ensemble du monde et l’impréparation des dirigeants des pays les plus avancés, notamment en Occident. En dépit des très nombreux accords internationaux, de règles communes dans le domaine sanitaire, et du rôle supposé responsable d’institutions comme l’OMS, la coopération a été plus que mauvaise entre les États qui ont globalement adopté des logiques strictement nationales et tenté chacun de son côté d’accumuler médicaments et masques, parfois par des moyens peu déontologiques. L’Occident – Europe en tête – a abandonné sa souveraineté en matière de médicaments en conséquence des nombreuses délocalisations au profit de la Chine, devenue aujourd’hui le producteur de plus de 80 % des principes actifs, l’Union européenne étant presque totalement dépendante des productions chinoises ou indiennes. Il en va de même pour les masques : la Chine détient plus de la moitié de la capacité de production mondiale, avec plus de 200 milliards d’unités exportées en 2020 ! Le dirigeant chinois Xi Jinping a ainsi exploité au maximum la « diplomatie des masques » pour démontrer son poids géopolitique au niveau mondial avec une capacité de production supérieure à n’importe quel autre pays. La Chine possède également trois vaccins et en est le premier producteur, avec 33 % de la production mondiale devant les États-Unis (27 %). Elle les exporte dans de nombreux pays d’Afrique, d’Asie, du Moyen-Orient ou d’Amérique latine. Certains ont rétorqué que les vaccins chinois sont peu efficaces, que l’OMS a mis du temps à les valider, mais personne ne dispose du recul nécessaire pour affirmer qu’ils ont été moins protecteurs que les équivalents occidentaux, d’autant que si les sérums chinois ne semblent efficaces qu’à 50 % contre les nouveaux variants de la Covid-19, ils protègent apparemment à 100 % contre les formes graves. Toujours est-il que la Chine s’est relevée de la crise sanitaire plus efficacement et plus rapidement que tous les pays occidentaux. Et la plus grande efficacité des vaccins de l’industrie Big Pharma occidentale à virus actifs ou à ARN, quant à eux hâtivement homologués par les gouvernements, n’a pas plus été démontrée que ne l’a été l’infériorité supposée des équivalents russes comme Spoutnik ou chinois, comme Sinovac. On a également assisté à une guerre des représentations entre les États-Unis et la Chine, chacune des deux superpuissances accusant l’autre d’être à l’origine de la pandémie, ce qui n’a fait qu’intensifier la guerre commerciale les opposant depuis 2017. Alors que Trump conspuait la Chine communiste, non sans arrière-pensées électorales, Xi Jinping tentait de limiter au maximum la transmission d’informations sur le virus aux partenaires étrangers, cachant même durant plusieurs mois au monde l’ampleur de la menace, ce qui a réduit la préparation des autres pays dans leur gestion de la crise. La rivalité stratégique et géoéconomique sino-américaine croissante a ainsi primé sur un sujet pourtant vital qu’est la santé publique des citoyens des pays du monde entier. De la même manière, la rivalité russo-occidentale a considérablement nui à l’intérêt des citoyens européens. Ces derniers n’ont en effet pas pu s’approvisionner en vaccins assez vite mais, malgré cela, l’Union européenne a refusé d’homologuer le vaccin russe Spoutnik, par logique atlantiste, certes, mais également en raison de la toute- puissance des laboratoires pharmaceutiques mondialisés – principalement anglo-saxons. Rappelons que le marché pharmaceutique mondial, dont les acteurs essentiels sont américains – même s’ils produisent et sous-traitent massivement en Inde et en Chine –, asiatiques, et, dans une moindre mesure, en Europe, représente environ 1 100 milliards d’euros de chiffre d’affaires et que ses dix premières entreprises comptent plus de 800 000 salariés. Les cinq premiers groupes, Johnson & Johnson, Roche, Pfizer, Bayer et Novartis, représentent un quart du marché à eux seuls. Le degré de concentration de ce secteur est illustré par le fait que seule une vingtaine d’entreprises dépasse les 10 milliards de chiffre d’affaires. Par ailleurs, et sans tomber dans les théories conspirationnistes, on peut supposer que le fait que ces firmes aient obtenu une autorisation provisoire de vaccination de masse tant que des traitements ne sont pas disponibles ne les a pas incités à privilégier la commercialisation des médicaments antiviraux, souvent issus de produits déjà existants et donc moins coûteux que les vaccins. Selon certains, les conflits d’intérêts des mondes médical et politique expliqueraient pourquoi les dirigeants occidentaux ont privilégié la piste des vaccins et interdit aux médecins de soigner (décision sans précédent) avec des traitements classiques 5 . On soulignera également l’étonnant refus des instances européennes d’appuyer le projet de vaccin de la start-up biotech française Valneva, qui siège à Nantes, associée à un labo autrichien. Son sérum à spectre large promettait pourtant d’être au moins aussi efficace que ceux de Pfizer, Moderna, AstraZeneca, car capable de stimuler les défenses immunitaires face aux nouveaux variants avec un virus désactivé, mais moins dangereux que les nouveaux vaccins de Big Pharma à virus actif ou à ARN. Ces derniers nécessiteront d’ailleurs des rappels perpétuels au gré des « variants » et leurs effets sur la santé à long terme sont encore méconnus. Initialement bloqué par l’Union – soumise aux pressions des grandes multinationales pharmaceutiques, Valneva s’est donc tournée vers le gouvernement britannique brexiteur – donc pleinement souverain – qui a appuyé les essais cliniques de l’entreprise française et la construction d’une de ses usines en Écosse pour fabriquer son sérum prometteur en masse, que les Français auront donc bien après les Britanniques ! La gestion de la pandémie a rappelé que la mondialisation marchande, même médicale, est d’abord un théâtre de guerre économique et de rivalités, et que les logiques nationales sont souvent plus efficaces que celles du multilatéralisme ou du supranationalisme (OMS, ONU, UE). Pour ce qui est de la limitation de l’expansion du virus, le souverainisme semble avoir été plus efficace que le sans-frontiérisme européen, et à cet égard, les puissances asiatiques s’en sont sorties beaucoup mieux. Le leader chinois, Xi Jinping, soutenu par l’OMS, et qui a facilité l’élection du directeur général, l’Éthiopien Tedros Adhanom Ghebreyesus, pour certains à la solde de Pékin, en a ainsi profité pour glorifier les « capacités extraordinaires » du Parti communiste chinois et de sa nation, « la seule » capable de gagner la guerre contre le virus, contrairement aux démocraties occidentales engluées dans leurs fractures politiciennes internes. Force est de reconnaître que le système chinois a été capable de réagir très vite et très fort, que ce soit sur le sanitaire comme sur la relance, en remettant tout le monde au travail et en déconfinant plus tôt et plus sûrement. Les pays industrialisés et démocratiques d’Asie, non moins souverainistes, comme la Corée du Sud, Taiwan ou le Japon, ont également été bien plus réactifs que les démocraties occidentales. Certains ont pu ainsi voir dans l’éthique du confucianisme le fondement d’un modèle de société hautement hiérarchisé (discipline, sens du devoir, piété filiale, respect des personnes âgées, humilité) qui continue aujourd’hui de façonner les habitants de Hong Kong, de Taiwan, de Singapour, de la Corée du Sud, du Japon, voire du Viêtnam, et qui pourrait relever les défis modernes évoqués par Bill Gates et les services de renseignements mais que les démocraties libérales devenues libertaires semblent peu à même de régler, faute de discipline, de sens commun et d’autorité... Ces pays de l’ère taoïste-confucéenne et shintoïste ont démontré une incontestable aptitude à la discipline en temps de crise et à la « technologie civique » dans la guerre sanitaire que les peuples du monde entier ont fini par envier. La crise économique est une crise sanitaire D’après les estimations actuelles, le monde traverse la crise économique la plus lourde de l’Histoire. Le PIB mondial a ainsi baissé de 3,2 % en 2020. Les hausses de chômage sont massives dans certains pays : près de 25 % d’augmentation en France, ce qui a propulsé le taux de chômage à plus de 11 %. À la fin de l’année 2020, il y avait près de 600 000 emplois salariés de moins qu’à la fin de l’année précédente 6 . La flambée a été de 50 % au Portugal, le taux de chômage y passant de 6 à 9 %. Le taux de chômage mondial a certes fortement baissé au deuxième trimestre. Mais avec la fin du confinement et la reprise d’un comportement habituel de recherche d’emploi, il a augmenté de 1,9 point au troisième trimestre, passant ainsi à 9 %. Et les phénomènes de « quatrième vague » ou de nouveaux « variants » – brésilien (Gamma), sud-africain (Bêta), britannique (Alpha), indien (Delta), ou encore Lambda, Epsilon –, couplés avec la lenteur de la vaccination de masse au niveau mondial et les incertitudes sur son efficacité, rendent l’avenir moins prometteur que ce que l’on a pensé en juin 2020 lorsque certains, notamment le Pr Raoult, affirmaient que le virus était en train de disparaître... D’autant que les vaccins, par ailleurs pas aussi fiables que prévus face aux variants, ne sont devenus massifs que dans les pays développés, ce qui permet au virus de progresser et muter indéfiniment ailleurs. La Covid a provoqué une nouvelle poussée de la pauvreté, comme en Inde, où elle a explosé dans les zones rurales. L’économie indienne, déjà en ralentissement depuis 2017, a été très sévèrement touchée, de sorte que son retard vis-à-vis de son rival et ennemi chinois s’est accentué. La crise sanitaire a mis au chômage 120 millions de personnes et a jeté sur les routes la moitié des 40 millions de travailleurs migrants internes qui ont quitté les centres urbains 7 et ont ainsi contribué à répandre le virus dans les campagnes. Selon les Nations unies, 260 millions d’Indiens pourraient retomber dans la pauvreté (soit quasiment autant que les 271 millions qui en étaient sortis entre 2006 et 2016). Ce retour en arrière pose au pays des défis considérables, en particulier au niveau de la malnutrition. Depuis longtemps, la recherche académique a tenté de quantifier les liens qui existent entre crise économique et conséquences sanitaires. Une étude publiée en 2016 dans la revue Current Epidemiology Reports expliquait que la crise de 2008 avait eu de nombreuses conséquences sanitaires en Europe : augmentation des suicides, baisse de la santé générale perçue, hausse de la mortalité, baisse de la fertilité... D’autres études ont démontré le lien entre la pauvreté (et sa hausse en cas de crise) et les risques de développer un cancer. Une étude publiée dans The Lancet a stipulé que la crise économique de 2008, en fragilisant les systèmes de santé, avait augmenté à près de 260 000 le nombre de morts du cancer dans le monde 8 . Et les conséquences indirectes de la crise sanitaire liée à la Covid pourraient être encore plus douloureuses. Indicateur significatif : le Secours populaire a enregistré une hausse de 45 % de sa fréquentation en 2020. Dès le 23 mars 2020, Santé publique France a lancé l’enquête CoviPrev auprès de 2 000 personnes, afin de suivre leur état psychologique et l’évolution de leurs comportements dans un contexte inédit. Après une semaine de confinement, l’anxiété touchait 26,7 % des personnes interrogées, contre 13,5 % en 2017. Au 1 er avril, la prévalence de la dépression atteignait 19,9 %, soit le double d’une moyenne de près de 10 %. Et jeudi 19 novembre, le ministre de la Santé a révélé que le numéro d’aide mis en place sur ces questions (le 08 00 13 00 00), géré par des associations, recevait « près de 20 000 appels par jour ». Au niveau mondial, l’ONU s’attend à ce que 71 millions de personnes rechutent dans l’extrême pauvreté en 2021, soit la première augmentation dans le monde depuis 1998. Le Dr Andreea Stoian Karadeli, chercheur à l’université de South Wales et au Centre de politique de sécurité de Genève (GCSP), a fait valoir que le manque de confiance et la peur causés par le coronavirus sont pires que le virus lui-même. Cette conscience des effets de la peur est chère aux groupes djihadistes comme l’EI qui ont théorisé l’idée que l’ennemi devait être frappé sur le terrain psychologique en faisant tout pour « jeter l’effroi dans le cœur des mécréants ». Les grandes catégories d’extrémistes – djihadistes, sectes, extrême droite et extrême gauche – ont d’ailleurs tenté de profiter de ce moment pour réactiver les vieilles théories conspirationnistes qui ont prospéré sur les réseaux sociaux au-delà même des sphères « extrémistes » (« démocratisation des thèses complotistes »). Daesh, Al-Qaïda et maintes sectes fanatiques ont présenté le virus comme « une punition de Dieu contre les infidèles ». Des groupes radicaux ont ciblé les Asiatiques, accusés d’être la cause du virus, ainsi que les juifs, qui sont toujours une cible. Les milieux révolutionnaires d’extrême gauche ou anarchistes ont blâmé le système capitaliste et affirmé que le confinement serait le fruit d’un complot gouvernemental visant à priver les gens de leurs libertés, appelant ainsi à attaquer les symboles capitalistes. Géopolitique de la Covid-19 L’échelle de cette crise est si importante que les vaccins sont devenus des facteurs géopolitiques qui définissent les rapports de force entre pays et qui permettent de projeter la puissance souveraine à l’international. Le meilleur exemple a été offert par la Russie de Poutine qui a su instrumentaliser des livraisons de Spoutnik un peu partout dans les pays du Sud et même dans certains d’Europe, dans le but d’améliorer son image (soft power) auprès des élites et des populations. Moscou a privilégié cette action d’influence à l’international à la livraison massive de vaccins à ses citoyens, le but étant de renforcer son soft power dans sa sphère d’influence (Kazakhstan, Kirghizistan, Caucase) et de l’élargir en Amérique latine et au Moyen-Orient. La Chine a adopté une stratégie similaire en exportant ses vaccins (laboratoires Sinovac et Sinopharm, fondés sur une méthode classique à virus désactivé) dans des dizaines de pays, notamment africains – jusqu’à les offrir 9 parfois – mais aussi au Moyen-Orient, particulièrement aux Émirats arabes unis, qui produisent directement sur leur territoire le vaccin chinois Sinopharm. L’Union européenne s’est quant à elle résolument opposée au vaccin russe Spoutnik, privilégiant les fabricants américains ou européens, bien que certains pays européens aient plaidé pour l’introduction rapide des vaccins russes, comme l’Italie ou l’Allemagne. Imitant les responsables de l’UE, l’Ukraine a rejeté le vaccin russe par pur choix idéologique et stratégique, préférant ceux américains ou européens, au détriment des prix plus bas et des intérêts des citoyens/malades eux-mêmes. Toutes les économies et les gouvernements du monde ont été touchés par la crise sanitaire, et ces derniers y ont presque tous répondu par un important soutien budgétaire. En raison des divers plans de relance et de sauvetage des entreprises, la récession provoquée par la pandémie a propulsé la dette mondiale en pourcentage du PIB à un nouveau record de 355 % début 2021, contre 320 % fin 2019. À la suite de l’introduction de mesures de confinement dans le monde depuis mars 2020, le PIB dans la zone OCDE a diminué brutalement de 9,8 % fin 2020, la plus forte baisse jamais enregistrée, nettement supérieure au 2,3 % du premier trimestre 2009, en pleine crise financière 10 . Au Royaume-Uni, le PIB a chuté de 9,8 % sur l’année 2020, tandis qu’en France, la chute a atteint 8,3 %. Les campagnes de vaccination, les politiques de santé et le soutien financier des gouvernements étaient censées, fin 2020, faire augmenter le PIB mondial de 4,2 % en 2021, après une baisse de 4,2 %. La reprise aurait été plus forte si les vaccins avaient déployé rapidement. Les retards dans le déploiement de la vaccination, les difficultés à contrôler les nouveaux foyers du virus, les deuxième, troisième vagues, et autres « nouvelles » mutations du virus ont vite affaibli les perspectives. Le rebond s’est certes confirmé en 2021, mais il a été bien plus fort dans les pays asiatiques qui ont mieux maîtrisé le virus. Quant à la Chine, elle « a mis en œuvre des mesures efficaces lui permettant de connaître un rebond important et surtout durable, le pays aura été le seul à connaître une croissance positive dès 2020 11 ». En ce qui concerne l’Afrique, dans la première phase, elle a été peu touchée par la pandémie. Certains pays africains, comme le Sénégal, l’Afrique du Sud et le Kenya, seront probablement en mesure de faire face à la grave urgence sanitaire. Mais d’autres, comme la Tanzanie, le Mozambique, l’Ouganda, la République démocratique du Congo ou l’Éthiopie, sont particulièrement à risque, tandis que certains États comme la République centrafricaine, la Somalie ou le Soudan du Sud n’ont aucune chance de réagir à une propagation généralisée du virus. Au Maghreb, dix ans après les printemps arabes, les espoirs de transition démocratique portés sur le pays de la révolution du Jasmin, la Tunisie, seul pays arabe qui avait réussi une réelle transition démocratique, risquent d’être balayés par la crise sanitaire. Le pays est sur le point de faire faillite, comme le Liban, et la récession de –8,5 %, couplée au chômage sidéral, à l’opposition entre islamistes et nationalistes, à la faillite du système de santé et à la ruine des finances publiques, risquent de plonger le pays dans le chaos. Les pays producteurs de pétrole ont également été touchés car affectés par la volatilité des prix et variations des marchés. Une économie hydrocarburière comme l’Algérie, pénalisée depuis des années par un prix du baril de pétrole très bas, et qui importe massivement, risque de fortes pénuries. Les monarchies du Golfe et les pays pétroliers d’Afrique ont à leur tour investi très peu dans le secteur de la santé. Dans de nombreux cas – Libye (bombe à retardement compte tenu de la porosité de ses frontières), Syrie (militaires infectés d’Iran et du Pakistan), Yémen (déjà à genoux en raison de la pire catastrophe humanitaire de la planète), on constate un chevauchement géopolitique entre les situations préexistantes (conflits et crises de diverses natures), les effets du virus, les conflits armés en cours et l’urgence virale. L’Inde a quant à elle été touchée d’une manière particulièrement préoccupante en mai 2021 avec 412 000 nouveaux cas en vingt-quatre heures (moyenne de 350 000 à 400 000) et près de 4 000 décès journaliers. À l’opposé de la Chine confucéo-maoïste, l’Inde démocratique, fédérale et ouverte a été incapable de maîtriser la situation par manque de moyens (soins intensifs, oxygène...), et surtout faute d’être dotée d’un système politique suffisamment autoritaire et centralisé pour contrôler la société et une population de 1,4 milliard d’habitants. En Europe, l’Espagne et l’Italie, par exemple, qui sont plus dépendantes du tourisme de masse, ont été plus touchées par la crise que les pays d’Europe du Nord. D’une manière générale, la crise due à la Covid-19 a provoqué une chute spectaculaire des investissements directs à l’étranger (IDE). D’après les chiffres de l’ONU, les investissements directs étrangers dans le monde ont chuté de 42 % en 2020 12 et sont par conséquent passés sous la barre des 1 000 milliards de dollars (environ 850 milliards) pour la première fois depuis 2005. La baisse s’est concentrée dans les pays développés, où les IDE ont chuté de près de 70 % pour s’établir à environ 229 milliards de dollars. La situation est encore plus préoccupante pour les pays en développement, la pandémie ayant entraîné une prudence accentuée des investisseurs. Les pays dépendants de ces investissements ont donc subi une forte baisse des entrées de capitaux. En Afrique, les IDE sont passés de 46 à 38 milliards de dollars, et la baisse des projets sur site vierge dans les pays en développement atteint 46 % et 63 % pour les pays africains. Ces régions sont plus vulnérables parce qu’elles dépendent davantage des investissements et qu’elles ne peuvent pas mettre en place les mêmes mesures de soutien économique que les pays développés. En revanche, les pays asiatiques sont ceux qui ont le mieux résisté, avec une baisse des IDE de seulement 4 %. Au niveau global, l’économie mondiale a reculé de 3,3 % en 2020 13 avec plus de 10 000 milliards de dollars de pertes, selon les estimations du Fonds monétaire international, en raison du confinement et des mesures de restrictions sanitaires dues à la pandémie. Le ralentissement causé par la pandémie n’a fait qu’accentuer un mouvement de croissance négative ou nul initié depuis des années et il a donc aggravé une tendance baissière déjà ancienne. Les flux mondiaux d’IDE vont rester assez faibles en 2021, et les Nations unies prévoient une nouvelle baisse de 5 à 10 % par rapport à l’année écoulée, annonçant la vraie reprise pour seulement 2022, sous l’effet de la restructuration des chaînes de valeur mondiales en faveur d’une plus grande résilience, de la reconstitution du stock de capital et du redressement de l’économie mondiale. Mais tout dépendra de la résolution définitive de la crise sanitaire... En ce qui concerne la croissance du PIB, les dernières estimations du FMI confirment là aussi des inégalités avec, sans surprise, la Chine en tête, cette dernière ayant déjà retrouvé une croissance fin 2020 de 8 %, suivie par les États-Unis (6,4 %, soit une révision à la hausse de 1,3 point par rapport à janvier 2020 due aux plans de relance de Joe Biden), et de la zone euro qui pourrait connaître un rebond de 5,8 %, estimation elle aussi revue à la hausse en raison des retombées bénéfiques pour la zone UE du plan de relance américain. Mais rien de cela n’est certain. L’endettement colossal et le spectre d’une banqueroute de l’économie mondialisée Pour faire face à la pandémie, nombre de pays, notamment industrialisés, ont lancé des plans d’aides massives en vue d’amortir la récession subite. En avril 2020, l’Union européenne a ainsi lancé un vaste plan d’urgence de 540 milliards d’euros. Deux autres instruments de relance ont été adoptés par la suite : un budget 2021-2027 de 1 075 milliards d’euros et un plan de relance de 750 milliards d’euros, réévalué en avril 2021 à 806 milliards d’ici à 2026. Les banques centrales ont donc inondé les marchés pendant que les gouvernements ont renfloué les entreprises fragilisées par la crise, ceci au moyen d’emprunts et donc d’endettements supplémentaires devenus surréalistes. La BCE a joué bien évidemment un rôle clé en rachetant massivement les dettes émises par les gouvernements européens pour rassurer les marchés financiers et permettre aux États de s’endetter à bas coût. Son programme d’urgence face à la pandémie (PEPP), lancé en mars 2021, a atteint le montant astronomique de 1 850 milliards d’euros. Le plan de relance américain a quant à lui mobilisé, tout d’abord sous Donald Trump, à partir de mars 2020, 2 200 milliards de dollars (10 % du PIB), auxquels s’ajoutent 900 milliards adoptés en décembre 2020. Le nouveau Président américain, Joe Biden, a ajouté trois plans de relance supplémentaires : le premier de 1 900 milliards de dollars, adopté en mars 2021 par le Congrès et destiné à stimuler la reprise économique par l’aide aux personnes les plus modestes, l’accélération des vaccins, puis l’aide aux autres secteurs touchés par la crise, financé en grande partie par la dette. Le deuxième plan, destiné aux infrastructures (2 250 milliards de dollars sur huit ans), vise à rénover le secteur des transports, de l’industrie et de la transition énergétique. La mesure phare de ce financement est l’impôt sur les sociétés que Biden, à l’inverse de l’administration Trump, veut augmenter à 28 % contre 21 actuellement, provoquant ainsi l’opposition des républicains et des entreprises concernées. Le dernier plan prévu (1 800 milliards), dédié à l’éducation et l’aide aux familles, devrait être financé par une hausse d’impôt pour les ménages les plus riches. Les deux derniers plans n’ont pas encore été approuvés au moment de la rédaction du livre. Au total, 6 000 milliards de dollars de dépenses ont été annoncées, soit l’équivalent du PIB de la France, de l’Italie et de l’Espagne réunies ! Tous ces plans de relance au niveau mondial n’ont fait que rendre encore plus grave un fléau déjà ancien qui promet de punir les générations à venir : l’endettement endémique qui menace, à terme, le système capitaliste mondial mis en place par les Occidentaux. Depuis les années 2000, en effet, les plus grandes instances internationales, dont la Banque des règlements internationaux (BRI) et l’Institute of International Finance (l’IIF), tirent la sonnette d’alarme sur la situation de la dette mondiale (États, entreprises et ménages réunis), qui, d’après l’IIF, a atteint 281 000 milliards de dollars fin 2020 14 , soit 355 % du PIB mondial ! Pour les seules années 2020 et 2021, le chiffre avancé est de 65 000 milliards de dollars. Et les plans de relance ont accentué un phénomène préexistant : les banques centrales détiennent des parts de plus en plus importantes de dettes souveraines. Le spectre du surendettement est rendu certain par l’augmentation exponentielle des dépenses liées au traitement de la pandémie. À ce rythme, l’IIF évalue l’endettement mondial global à 360 000 milliards de dollars d’ici 2030. Il existe par conséquent une grande incertitude sur la façon dont l’économie mondiale va pouvoir se désendetter dans l’avenir sans conséquences socio-économiques dramatiques pour les populations (austérité). L’endettement asphyxie bien évidemment en premier lieu les pays les plus pauvres. Certains ont déjà déclaré un défaut de paiement (Liban, Venezuela) ou sont sur le point de le faire (Tunisie). La dette du Venezuela et du Liban a déjà atteint 77 700 milliards de dollars en 2020 (contre 55 000 milliards en 2018 15 ), selon l’IIF. Les pays développés sont toutefois à l’origine de la moitié de la progression de l’endettement mondial. La dette publique américaine s’élève ainsi à 23 000 milliards de dollars 16 en 2021, soit 102,3 % du PIB, taux qui va encore augmenter avec les trois plans de relance voulus par Joe Biden (pas encore tous approuvés à la rédaction de l’ouvrage). La dette des firmes américaines a quant à elle littéralement explosé depuis la crise de 2008, pour atteindre 10 600 milliards de dollars 17 , soit la moitié du PIB américain... Concernant la dette totale de la Chine, curieusement rarement évoquée, elle a atteint 40 000 milliards de dollars en 2021, soit 15 % de l’endettement total de la planète, et 335 % du PIB chinois 18 ! Il est certes vrai que le souverainisme chinois couplé à ses excédents commerciaux et à la dépendance du monde industriel vis-à-vis d’elle la prémunissent contre un scénario de banqueroute. Tel n’est toutefois par le cas de la zone euro, dont la dette publique a grimpé en flèche (+1 240 milliards d’euros) en raison des mesures financières pour soutenir l’économie touchée par la pandémie, atteignant ainsi 11 100 milliards d’euros, soit 98 % du PIB, contre 83,9 % en 2019 19 . Par ailleurs, l’augmentation des indicateurs de stress de liquidité du marché des obligations annonce des turbulences sur les marchés mondiaux et une hausse des taux d’intérêt à venir. La conséquence d’une dette élevée et croissante est de réduire l’épargne, d’augmenter les intérêts de cette même dette, de limiter la capacité des décideurs à réagir à des événements imprévus, et d’accroître la probabilité d’une crise financière majeure. Face à cet endettement mondial sans précédent, aucun consensus n’existe parmi les économistes et les gouvernements nationaux quant au montant maximal de dette publique soutenable, pas plus que sur le moment à partir duquel cette dette va inévitablement saper à son tour la croissance du PIB. Dans son rapport paru en avril 2020, le FMI a averti qu’une augmentation des restructurations de dettes et des défauts sera inévitable dans les pays les plus fragiles et que le surendettement des entreprises non financières et des ménages est également extrêmement alarmant, le pire scénario étant une banqueroute générale du système capitaliste libéral. Les mesures d’endettement mises en place pour faire face à la crise sanitaire représentent donc un risque majeur, d’autant que de nombreux autres signaux sont préoccupants pour la stabilité financière mondiale, que ce soit l’hyperinterventionnisme des banques centrales, le niveau élevé des indices boursiers, la volatilité des actifs, le risque d’éclatement des bulles immobilières et boursières, ou encore l’endettement des sociétés non financières. S’ajoute à cela la guerre commerciale sino-américaine qui n’augure rien de bon pour l’économie et la stabilisation des marchés et pour le multilatéralisme... La France et l’Europe au bord de la faillite ? En juillet 2021, la dette publique française s’établissait à 2 700 milliards d’euros, soit 177 % du PIB 20 . D’après un scénario émis par le rapport Arthuis 21 , avec 10 % de déficit, et sur la base d’une croissance économique à 1,5 % en moyenne, l’endettement de la France devrait ainsi s’élever à 128 % du PIB d’ici 2030, certes à politique inchangée. Il est vrai que Paris connaît un déficit annuel depuis... 1974, et à partir de cette date, même les meilleures années se sont terminées par des déficits. La France était déjà parmi les mauvais élèves de l’Europe bien avant la pandémie, mais elle a aggravé son cas en mettant sur la table des centaines de milliards d’aides publiques afin de renflouer les entreprises les plus touchées par la crise. En font partie aussi les interventions directes en capital pour les entreprises en difficulté, ainsi que les dispositifs de garanties en faveur des prêts bancaires aux entreprises et de l’assurance-crédit, soit un total d’intervention d’environ 470 milliards d’euros. Comme l’a expliqué Marc Touati : « En 2020, pour la première fois de son histoire, la France est devenue le premier contributeur de la dette publique de l’ensemble de la zone euro. La part de la dette publique française dans cette dernière est désormais de 24,1 %, contre 23,1 % 22 . » Or la croissance diminue en parallèle de l’augmentation de la dette... L’économie française va donc mal, le chômage augmente (le secteur des services s’est effondré avec les confinements), comme la précarité, avec le risque de crises sociales, ethnocommunautaires et donc de violences en zones sensibles. Dans les pays où les systèmes de protection sociale sont encore faibles ou presque inexistants, comme dans les sociétés anglo-saxonnes, en Espagne, en Allemagne, ou dans certains pays de l’Europe orientale et centrale, ces conséquences risquent d’être encore plus dramatiques socialement qu’en France, en l’absence d’amortisseurs sociaux puissants et de redistribution efficiente. Marc Touati alerte également sur les obligations d’État : « La bulle des obligations d’État [...] se traduit par une baisse des taux d’intérêt des bons du Trésor et donc une flambée du cours de ces derniers, en dépit de l’accroissement permanent de la dette [...], même si l’État vendait ses trésors ou une partie de son patrimoine, il ne parviendrait pas à rembourser ses dettes, l’actif de l’État français étant globalement négatif. » Un krach obligataire est donc fort probable, les taux d’intérêt sur les obligations de l’État pouvant augmenter et donc entraîner une perte de confiance des investisseurs internationaux qui, pour accepter de financer la dette, imposeraient des primes de risques ou taux d’intérêt très élevés, ce qui obligerait le pays à s’endetter sans fin... La Cour des comptes a dévoilé plusieurs scénarios de sortie de crise pour l’économie française. Le premier (positif), dit de « rattrapage 23 », prévoit une relance assez rapide de l’activité, bien qu’il faille au moins trois ans pour que la France retrouve sa situation d’avant crise, avec une croissance potentielle de 1,25 % par an sur la période. Dans ce scénario, le fonctionnement de l’économie ne serait que temporairement altéré et les capacités de production sortiraient indemnes de la crise, la dette devant même baisser légèrement. Le deuxième (défavorable) est celui d’une « perte limitée », c’est-à-dire un PIB qui retrouve son niveau d’avant crise mais sans pouvoir récupérer les pertes dues aux faillites d’entreprises et le report de projets d’investissements. Le bilan s’élève à plus de deux années de croissance perdues à cause de la pandémie. Enfin, le troisième dépeint une « faiblesse persistante » avec une relance de l’activité plus faible que prévu et des investissements affectés sur le long terme, ce qui ferait diminuer le taux de croissance sur plusieurs années avec un PIB remontant bien plus lentement que souhaité. La dette augmenterait alors jusqu’à 140 % du PIB dans les dix prochaines années. Le nombre de chômeurs et de travailleurs précaires exploserait, le climat politico-social se dégradant de plus en plus, augmentant le sentiment d’inquiétude et l’éventualité de soulèvements... Explosion de la dette et risque d’implosion de l’euro La question de l’annulation de la dette souveraine française par la BCE se fait de plus en plus entendre, phénomène qui se produit déjà en Europe pour nombre de nations, mais on peut aisément imaginer qu’il y a une limite à l’action de la BCE et qu’elle ne va pas pouvoir racheter les dettes infiniment. Il est clair qu’elle devra un jour réduire, voire arrêter, sa « distribution » de capitaux, en partie sous la pression de l’Allemagne. La France subira alors une forte augmentation des taux d’intérêt de ses obligations d’État. Marc Touati estime que « dès lors, même si la BCE et Angela Merkel ont réussi à calmer le jeu temporairement [...], le rachat des dettes souveraines par la BCE finira par devenir illégal en Allemagne. Et ce, a fortiori lorsque Angela Merkel ne sera plus chancelière, à l’automne 2021. Cela relancera immanquablement la crise de la dette publique, qui, ne l’oublions pas, n’est qu’endormie depuis 2015 et n’attend qu’un prétexte pour se réveiller avec pertes et fracas 24 ». En plus d’engendrer un krach obligataire et boursier international, « ce scénario viendra également réactiver la crise existentielle d’une zone euro qui est toujours aux abois. Ce qui alimentera de nouveau la hausse des taux d’intérêt obligataires et relancera la récession ». L’opposition structurelle entre l’Europe du Nord, riche, bien gérée et peu endettée, favorable à un « euro fort », et l’Europe du Sud, paupérisée, surendettée et mal gérée, deviendra intenable et menacera la survie même de l’UE. La Commission européenne a estimé qu’il faudra au moins deux ans pour se remettre de la crise sanitaire. D’autres experts parlent plutôt d’un cycle de dix ans... Or certains pays comme l’Espagne ou l’Italie ne possèdent pas de manœuvre budgétaire à la hauteur de la crise. D’après Marc Touati, « l’Union économique et monétaire telle que nous la connaissons aujourd’hui aura disparu avant 2022. Cela ne signifiera d’ailleurs peut-être pas la fin de l’euro, mais l’avènement d’une zone monétaire plus restreinte, avec une vraie intégration, une véritable union fédérale, des règles strictes et une entraide à toute épreuve 25 ». L’éradication du virus étant plus laborieuse que prévu, les perturbations de l’économie seront plus durables en Occident et partout en dehors de la zone asiatique. Nous assistons de la sorte à la récession la plus sévère jamais connue depuis l’entre-deux-guerres, en temps de paix. L’arbitrage qui a été fait au profit de la santé – après des années de réductions folles des personnels de santé et de nombre de lits d’hôpitaux – au détriment de l’économie et au prix d’un méga-endettement – avec les multiples confinements – va avoir des conséquences désastreuses dont on ne perçoit pas encore les manifestations les plus chaotiques. In fine, ce seront les citoyens qui paieront la facture, en particulier les épargnants et les retraités. Jusqu’à peu, la crise financière avait été noyée et différée artificiellement par les flux de liquidités injectées par les banques centrales, mais une fois que les solutions d’assistanat auront été épuisées et que l’endettement endémique aura conduit à la banqueroute et/ou à une austérité difficilement supportables pour les peuples, avec son corollaire de surtaxations et de spoliations possibles des rentiers (spectre des bail-in, comme à Chypre après la crise de 2008), l’heure des grandes secousses et des confrontations interétatiques et infra-étatiques sonnera le glas de la « mondialisation heureuse » et du multilatéralisme. Perdants et gagnants de la crise sanitaire Les grands gagnants de la crise sanitaro-économique sont les multinationales de l’Internet (WebSoft/Gafam), le monde de l’entertainment, les producteurs de jeux vidéo, et, d’un point de vue stratégique et géoéconomique, la Chine et les économies industrielles d’Asie en général. Le chiffre d’affaires du commerce en ligne des multinationales digitales, dont Amazon représente plus d’un tiers, a bondi de 17,5 % et son bénéfice net de 15 %. La grande distribution (surtout alimentaire) a profité de cette tendance avec une hausse de 8,5 % des recettes et de 18,4 % du bénéfice opérationnel, voire +40 % pour Walmart ou Carrefour. Les ventes en ligne de la grande distribution ont également progressé de 115 %. Les sociétés de paiements électroniques sont donc également gagnantes, tout comme les télécommunications et les réseaux de distribution on-line et à domicile et autres livreurs. Après l’apparition de la Covid-19, en effet, de nombreux gouvernements, citoyens et acteurs des Gafam ont considéré les paiements numériques comme un moyen efficace d’effectuer des transactions tout en réduisant le risque de propagation du virus. Sans surprise, si 2020 a été la pire année pour les commerces de proximité, l’hôtellerie, la restauration et les transports internationaux aériens et ferroviaires, elle a été l’année de gloire pour les Gafam. Le confinement et les mesures de prévention de l’épidémie ont en effet constitué un terreau de croissance idéal pour les géants du numérique. Ils ont profité de l’essor du télétravail, de l’e-commerce et du divertissement digital pour afficher des ventes records, qui ont bondi de 18 % au premier trimestre 2020 avec une hausse de 31 % du bénéfice par rapport à la saison précédente. Entre avril et décembre 2020, les Gafam ont augmenté de 45 % leur chiffre d’affaires (CA) cumulé 26 . Amazon a été le grand gagnant, avec un CA en hausse de 40 % (89 milliards de dollars) et un bénéfice net qui double à 5,2 milliards au deuxième trimestre 2020 27 . D’après un rapport de l’Oxfam 28 , les bénéfices réalisés pendant l’épidémie par 32 multinationales (américaines pour la plupart, dont les Gafam) se sont accrus de manière significative. Comparativement à sa marge bénéficiaire pré-Covid, Microsoft a ainsi réalisé près de 19 milliards de dollars de profits supplémentaires, Google plus de 7 milliards et Amazon, Apple et Facebook plus de 6 milliards chacun. Le secteur de la « tech » est particulièrement représenté dans la liste, avec, outre les Gafam, les américains Intel (8,2 milliards de dollars de bénéfices supplémentaires), Cisco Systems (3,2 milliards) et Oracle (1,9 milliard). Le secteur de l’électronique (Apple, Samsung, Dell...) a également profité de « l’accélération numérique », du télétravail et de l’enseignement à distance (CA en hausse de 5,5 % et un bénéfice opérationnel augmentant de 17 %), et va continuer à progresser avec l’arrivée de la 5G qui devrait accroître encore plus la demande de smartphones, en léger recul en 2020. Le secteur pharmaceutique est également l’un des grands vainqueurs naturels de la crise sanitaire, même si les ventes dans ce secteur ont augmenté au départ de façon modeste, en 2020 (3 %) et début 2021, avec un bénéfice opérationnel en hausse de 1,4 %, pour Johnson & Johnson, Roche, Bayer, notamment. L’augmentation des ventes, soutenues au départ par les médicaments et tests pour la Covid, est logiquement devenue massive avec la commercialisation des vaccins en 2021. Pfizer annonce ainsi une prévision de CA en 2021 à 33,5 milliards de dollars et Moderna à 19 milliards de dollars. Les profits des géants américains Merck et Johnson & Johnson sont aussi en hausse (+4,9 milliards de dollars pour l’un et +3,1 milliards de dollars pour l’autre) 29 . Les fabricants de masques et de gel ont quant à eux enregistré une véritable explosion de leurs ventes, avec une prédominance escomptée des industries chinoises. Les grands perdants sont le transport, l’industrie automobile, les constructeurs d’avions, les secteurs pétroliers et de l’énergie en général, ceux de la mode, de l’assurance et, bien sûr, du tourisme. Ainsi, le chiffre d’affaires du secteur pétrolier (Aramco, Shell, BP...) a chuté de 32,9 % et son résultat opérationnel de 85 %, en raison de l’effondrement des cours et de la baisse de la demande de pétrole de 9 % en 2020. La faiblesse de la demande d’énergie risque d’ailleurs d’être prolongée de quelques années avant de redémarrer ensuite grâce à la démographie mondiale, notamment, et en raison de la lenteur de la transition énergétique, certes engagée dans maints pays. En 2020, les ventes de l’industrie automobile (Fiat Chrysler, PSA, Volkswagen...) ont chuté de 12 % et ses marges de 42 %. Seules les ventes de véhicules électriques et hybrides ont tenu la route. Le secteur du tourisme a connu une baisse de 26 % et des pertes opérationnelles énormes. Les ventes du secteur de la mode (LVMH, Adidas...) ont connu une chute de 17,3 %, malgré une hausse de 50 % du commerce en ligne, tandis que les bénéfices opérationnels ont plongé de 47,9 %. Après une embellie au quatrième trimestre 2020, le secteur devrait croître d’environ 14 % en 2021, tiré une fois de plus par le luxe et la demande chinoise. D’après le centre d’études de la banque Mediobanca, trois secteurs vont devoir muter : la grande distribution, le transport et le tourisme, tandis que trois autres vont particulièrement prospérer dans l’ère de l’après-Covid-19 : la santé, les « Big Tech » et le bien-être. Biotech, ordinateurs quantiques, thérapies génétiques : la Chine et l’Asie en voie de déclasser l’Occident ? Lorsque l’Union européenne et les États-Unis ont gravement manqué de masques au début de la crise sanitaire, et lorsque les médias occidentaux ont décrit la façon dont les pays asiatiques – les premiers touchés – ont su très rapidement combattre la pandémie et protéger leurs populations grâce à des moyens technologiques de traçage avancés couplés à des fermetures de frontières, les citoyens et les élites d’Occident ont subitement pris conscience que l’Asie n’était plus seulement une usine mondiale à bas coût. Ils ont compris que, loin de n’être qu’une zone de délocalisation des entreprises occidentales cantonnée à produire et – dans le meilleur des cas – à imiter, l’Asie, Chine en tête, est la plus grande zone d’expansion commerciale, industrielle et technologique du monde, désormais capable de donner des leçons d’efficacité, de modernité et de progrès scientifique aux anciens maîtres occidentaux bientôt déclassés. Les innovations liées aux biotechs, aux nanotechnologies et au biomédical, en pleine expansion, domaines dans lesquels les pays d’Asie sont en passe de dépasser les Européens, représentent, après les technologies de l’information, la prochaine vague de croissance de l’économie des pays avancés, avec de grandes opportunités pour les entreprises et l’emploi 30 . Aussi les acteurs qui auront la plus grande avance dans ces domaines seront-ils en pole position dans la compétition entre puissances, sur les plans économiques, politiques, médicaux et militaires. Or force est de constater que l’Europe, qui accuse déjà un certain retard, faute d’investissements suffisants en R&D en raison des freins éthiques, quasi inexistants en Chine, risque le grand déclassement en laissant de facto le quasi-monopole dans ces domaines aux puissances asiatiques et, dans une moindre mesure, aux États-Unis. Les États encourageant massivement et sans frein ces technologies pourraient accélérer la capacité des laboratoires à développer des thérapies qui améliorent l’espérance de vie et la productivité des travailleurs par exemple. À la différence de la vieille Europe et du monde musulman, la Chine, mais aussi le Japon, la Corée du Sud ou Taiwan, qui bénéficient d’un environnement réglementaire favorable à la fois à la recherche sur les cellules souches et aux essais cliniques, obtiendront des résultats significatifs bien plus rapidement que l’Occident. Ainsi, après avoir formé de nombreux experts chinois et asiatiques, les puissances occidentales risquent de voir cette force se retourner contre eux et de perdre leur avance et leur leadership... Nanotechnologies Les nanotechnologies 31 , les cellules souches, les thérapies génétiques, ou autres biotechs, sans oublier les ordinateurs quantiques, sont à l’origine d’extraordinaires avancées. Ces innovations, combinées aux progrès dans les neurosciences et dans l’intelligence artificielle, vont révolutionner de nombreux domaines : médecine, industrie, défense, énergie. La combinaison de ces technologies pourrait susciter de nouvelles innovations comme les biocarburants synthétiques, les nano-ordinateurs, la robotique à usage militaire et médical, l’extension des domaines de la fabrication 3D à la médecine et à l’alimentation (viandes in vitro). Les pays réussissant à avoir le monopole de ces innovations auront une force technologique majeure et changeront les rapports géopolitiques. Les nanotechnologies, qui concentrent une bonne partie des investissements en R&D et en innovation, sont un enjeu stratégique de compétitivité entre puissances ayant les moyens d’être dans la course. Or l’Occident est en passe de perdre sa domination, notamment dans le domaine des technologies médicinales, au profit des puissances asiatiques, avec en tête la Chine. Le marché mondial des nanotechnologies devrait dépasser 125 milliards de dollars d’ici 2024 32 . La course aux résultats met en scène États-Unis, Allemagne, France, Chine, Japon et Taiwan. Et comme dans presque tous les domaines, la Chine s’est donné pour objectif de devenir leader : elle a connu la croissance la plus rapide de la recherche en nanosciences au cours de la dernière décennie. Parmi les 100 plus grandes institutions de recherche en nanosciences au monde en 2018, la Chine en compte déjà 33, contre 30 pour les États-Unis... L’armée chinoise possède également 6 établissements parmi les 10 premiers au monde, l’Académie chinoise des sciences étant largement en tête du peloton. Sur la période 2012-2017, les universités chinoises ont reçu 500 millions de RMB (près de 80 millions de dollars) pour la recherche sur les nanotechnologies, et l’Académie des sciences chinoise a lancé un programme de recherche stratégique prioritaire sur la nanotechnologie avec un investissement d’environ 1 milliard de RMB, soit près de 155 millions de dollars 33 . Au total, les investissements chinois en R&D sont extrêmement élevés et en constante augmentation. Pour l’année 2019, ils atteignaient 320 milliards de dollars, soit une hausse de 12,5 % par rapport à 2018 34 . Physique et Internet quantique Le grand déclassement des Occidentaux par les Asiatiques concerne également les ordinateurs quantiques, supercalculateurs, très différents des ordinateurs actuels, qui pourraient permettre, dans le futur, d’effectuer des calculs impossibles pour les ordinateurs classiques (simulations pour l’énergie, le climat, la chimie, la médecine). Aujourd’hui, la Chine est déjà leader : elle a récemment atteint le stade de la « suprématie quantique » grâce à un ordinateur de ce type, une avancée qui dépasse toutes les compétences de Google ! Le test qu’auraient fait les Chinois aurait été réalisé avec une vitesse 100 000 milliards de fois plus rapide que l’ordinateur le plus puissant du monde... C’est dans ce domaine que la progression de la Chine a été la plus impressionnante, sachant qu’elle en était totalement absente il y a vingt ans. Médecine régénérative et édition génomique Le même constat vaut pour la médecine régénérative, qui consiste à utiliser ces cellules et des tissus fabriqués à partir de cellules souches dans le but de réparer et régénérer des organes, des tissus ou n’importe quelle autre partie du corps endommagée, mais aussi pour des maladies. La recherche est active depuis de nombreuses années et des essais cliniques ont déjà été réalisés pour le traitement de plusieurs pathologies graves comme les organes abîmés, les cancers, les maladies neurodégénératives, la colonne vertébrale, etc. Alors qu’en Occident, les états d’âme « éthiques » interdisent la culture médicale des cellules souches, ce qui bloque les progrès médicaux en matière de médecine régénérative, la Chine (mais aussi Taiwan), qui n’a pas ces scrupules, en a fait une priorité de la R&D. Ces dernières années, Pékin a financé très massivement les recherches. C’est ainsi que le douzième plan quinquennal (2011-2015) chinois a consacré 3 milliards de yuans (435 millions de dollars) sur les seules cellules souches et la médecine régénérative, et que le treizième plan (2016-2020) a lancé un vaste programme dénommé « Stem Cell and Translational Research » de 2,7 milliards de yuans (423 millions de dollars), consacré aux applications des cellules souches aux maladies neurologiques, vasculaires, du foie et de la reproduction 35 . En 2018, des médecins du Nanjing Drum Tower Hospital à Nankin ont réussi à soigner des patientes atteintes d’insuffisance ovarienne à l’aide de cellules souches et, en 2019, deux hommes ont été les premiers à recevoir un traitement à base de cellules souches « reprogrammées » pour une maladie cardiaque, une première mondiale. L’autre avancée majeure médicale a consisté à associer la médecine régénérative et l’impression 3D. La Chine a ainsi conçu la première bio- imprimante 3D capable de fabriquer des vaisseaux sanguins, mise au point par l’entreprise Sichuan Revotek qui utilise une encre biologique composée des cellules souches prélevées à partir de cordon ombilical humain. Cette technique biomédicale vise à modifier le génome d’une cellule, d’origine végétale, animale ou humaine (modification d’ADN). Les possibilités en fonction de l’avancement de la science sont multiples. Les chercheurs peuvent créer des mutations dans des gènes pour en observer les effets et corriger des problèmes en insérant des fragments d’ADN ou en modifiant des gènes. Là aussi, les avancées sont limitées dans les pays occidentaux qui posent la question éthique des risques d’abus ou tentatives de modifier des êtres humains directement dans leur ADN. Ainsi, lorsque des « bébés transgéniques » ont été expérimentés dans un laboratoire chinois, la communauté scientifique internationale – surtout occidentale – s’indigna quasi unanimement. Le scandale a révélé une fois de plus l’énorme choc culturel, éthique et déontologique qui oppose, d’une part, un Occident rempli de scrupules et de principes de précaution et, de l’autre un régime autoritaire sino-maoïste animé par la seule logique de l’efficacité et de la recherche de la puissance par tous les moyens. 1. Voir la polémique américaine autour des révélations de l’ex-conseiller médical de la Maison Blanche, Anthony Fauci : « États-Unis : le Dr Fauci exhorte la Chine à partager les dossiers médicaux des chercheurs malades de Wuhan », Le Figaro, 4 juillet 2021. 2. Institut de recherche sur les politiques publiques du Congrès des États-Unis. 3. CRS, Global Economic Effects of COVID-19, rapport, avril 2021. 4. « Our Annual Letter. The Year Global Health Went Local », site de la fondation Bill Gates, 27 janvier 2021. 5. Xavier Bazin, Big Pharma démasqué, de la chloroquine aux vaccins, la crise du coronavirus révèle la face noire de notre système de santé, Paris, Trédaniel, 2021. 6. Insee, « Emploi et chômage », note de conjoncture, 15 décembre 2020 ; Point de conjoncture, 2020. 7. « Quel monde en 2021 ? », Alternatives économiques, n o 122, janvier 2021. 8. Clément Fournier, « Et si les conséquences sanitaires de la crise économique étaient pires que celles du coronavirus ? », Youmatter, 28 octobre 2020. 9. « La Chine fait don de 200 000 doses de vaccin anti-COVID-19 à la Sierra Leone », Xinhuanet, 26 février 2021. 10. Publication de l’OCDE : « GDP Growth – Second Quarter of 2020, OECD », 26 août 2020. 11. Alternatives économiques, hors-série n o 122. 12. Cnuced, « Les investissements directs étrangers dans le monde ont chuté de 42 % en 2020 », 25 janvier 2021. 13. FMI, Perspectives de l’économie mondiale. Reprise : des situations divergentes à gérer, rapport, avril 2021. 14. Institute of International Finance, Global Debt Monitor. COVID Drives Debt Surge—Stabilization Ahead ?, 17 février 2021. 15. Banque mondiale, « Le niveau d’endettement dans le monde augmente avec une ampleur et un rythme sans précédent depuis 50 ans », 19 septembre 2019. 16. « États-Unis : “le niveau actuel de la dette est tout à fait viable”, selon la Fed », Le Figaro, 14 avril 2021. 17. Mayra Rodriguez Valladares, « U.S. Corporates Continue to Gorge at the Debt Trough », Forbes, 10 avril 2021. 18. IIF, Global Debt Monitor. Sharp Spike in Global Debt Ratios, rapport, 16 juillet 2020. 19. « La pandémie a fait exploser la dette de la zone euro en 2020 », Les Échos, 22 avril 2021. 20. Statistiques disponibles sur le site de l’Eurostat, www.ec.europa.eu. 21. Commission pour l’avenir des finances publiques, mars 2021 www.gouvernement.fr/sites/default/files/document/document/2021/03/rapport_- _commission_sur_lavenir_des_finances_publiques.pdf. 22. Marc Touati, « La France, premier fournisseur de dette publique de la zone euro », Acdefi, 8 décembre 2020. 23. Paul Louis, « Coronavirus : les trois scénarios de sortie de crise de la cour des comptes », BFM Business, 30 juin 2020. 24. Marc Touati, « La France est le premier fournisseur de dette publique... », op. cit. 25. Marc Touati, « Le coronavirus va-t-il sonner le glas de la zone euro à 19 ? », Capital, 15 mai 2020. 26. « GAFAM : La pandémie, qui a profité aux géants du numérique, pourrait accélérer leur régulation », Novethic, 5 novembre 2020. 27. « Ces incroyables profits d’Amazon pendant la pandémie », Capital, 30 juillet 2020. 28. « Power, Profits and the Pandemic » de septembre 2020, in art. cit. 29. « Gafam, actionnaires... Qui s’est le plus enrichi depuis le début de la pandémie ? », art. cit. 30. « Sciences du vivant et biotechnologie – Une stratégie pour l’Europe », communication de la Commission européenne, 23 janvier 2001. 31. Les nanotechnologies rassemblent un grand nombre de disciplines scientifiques traditionnelles comme la physique, la chimie, les sciences et technologies de l’information et de la communication (Stic), et biologie médicale. 32. Zhang Zhihao, « Chinese Researchers Head the Field in Nanoscience », China Daily, 19 août 2019. 33. Springer Nature, Small Science in Big China, août 2017. 34. « China’s Spending on R&D Rises to Historic High », Xinhua, 27 août 2020. 35. Ministère de l’Europe et des Affaires étrangères, « Éclairage sur la médecine régénérative en Chine », 19 juin 2018. Entre 1999 et 2018, la Chine a créé 30 centres de recherche en médecine régénérative. En nombre d’articles publiés, elle est, avec 2 091 articles (2008-2018), derrière les États-Unis (7366) mais devant la France, le Japon, la Corée, l’Allemagne. CHAPITRE XIV Démondialisation ou désoccidentalisation de la mondialisation ? « Tout pour nous et rien pour les autres, voilà la vile maxime qui paraît avoir été dans tous les âges, celle des maîtres de l’espèce humaine. » Adam Smith 1 L’évolution de l’échiquier géoéconomique mondial de ces dernières années et les crises de 2008 – financière – et de 2020-2021 – sanitaire et économique – ont porté un rude coup à la mondialisation heureuse, tant vantée par Alain Minc et les démocrates américains dans les années 1990. Longtemps indiscutable, cette doxa ne fait plus l’unanimité. Elle est même fortement combattue à l’intérieur de l’Empire américain par les adeptes du nouveau Parti républicain – et pas seulement par l’aile gauchisante du Parti démocrate autour de Bernie Sanders – depuis que le Grand Old Party a été métamorphosé et resouverainisé par les adeptes du Tea Party et Donald Trump, dont les électeurs s’autoqualifient fièrement de « Patriots ». Ces adeptes du « Make America Great Again » accusent ceux qui ont une lecture mondialiste de la globalisation marchande et financière d’avoir affaibli les États-Unis et appauvri les Américains anglo-saxons natifs en faisant subir aux ouvriers étatsuniens la concurrence déloyale mexicaine et asiatique ainsi que l’immigration incontrôlée. À l’opposé des partisans du libre-échangisme économique 2 , qui voient la mondialisation comme bénéfique en soi, les interventionnistes de droite et de gauche, adeptes de l’État stratège, prônent une altermondialisation ou une démondialisation qui passe par la réglementation, les cycles courts, la réindustrialisation et les relocalisations, voire par une forme de protectionnisme. Dans les années 1990-2000, ceux qui dénonçaient le plus la mondialisation marchande dite « néolibérale » étaient les anticapitalistes No Global (voir mouvement Attac), situés à gauche et à l’extrême gauche, marqués par un tiers-mondisme et un internationalisme prolétarien, qui proposaient un modèle alternatif à la mondialisation capitaliste néolibérale, donc une altermondialisation fondée sur le mantra paradoxal : act local (déglobaliser/renationaliser les entreprises, combattre les multinationales et le capitalisme financier) but think global (mondialiser les institutions publiques, c’est-à-dire supprimer des frontières qui empêchent les migrations – présentées comme bonnes en soi – et promouvoir une citoyenneté universelle). La contradiction résidait dans le fait qu’ils étaient identitairement mondialistes et économiquement nationalistes. Depuis que le monde est en voie de multipolarisation, ce sont des forces plus identitaires et nationalistes qui remettent le plus en question la mondialisation libérale à l’anglo-saxonne et qui œuvrent à une démondialisation. Ces puissances nationalistes ne se limitent pas à des États semi-autarciques comme la Russie. La plus hégémonique d’entre elles, la Chine mercantiliste, cherche plus à désidéologiser, désoccidentaliser et retourner la mondialisation contre ses protagonistes anglo-saxons qu’à la détruire. Les puissances montantes y voient en fait un gigantesque champ de concurrence, le théâtre d’une guerre géoéconomique et géocivilisationnelle qu’elles escomptent gagner face aux pays concurrents ou hégémoniques, notamment occidentaux. La démondialisation ne décrit donc pas, selon nous, l’aspiration – irréaliste et folle – à mettre fin aux échanges entre êtres humains, ni le « repli sur soi », qui provoquerait inéluctablement le retour des guerres et des nationalismes, d’après les adeptes de la mondialisation heureuse. Elle désigne la volonté des États de récupérer leur souveraineté – politique, économique et financière – et l’aspiration des peuples à défendre leur identité nationale. Celles-ci ont en effet été mises en danger par une mondialisation dérégulée à l’anglo-saxonne, une financiarisation excessive de l’économie, une désindustrialisation corrélative ainsi que par l’action des puissances supranationales et multinationales dont la croissance a semblé s’opérer au détriment des États-nation. Cette démondialisation, que nous pourrions aussi nommer la postmondialisation, signifie donc plutôt une redistribution des cartes économiques sur des bases géographiques plus cohérentes. Elle implique la réorientation des économies vers la priorité de la production destinée aux marchés locaux ; le rétablissement des « circuits courts » ; l’interdiction ou la limitation des délocalisations ; l’instauration d’un protectionnisme intelligent ; l’imposition de taxes douanières plus élevées aux pays à bas salaires qui pratiquent le dumping social et/ou – comme la Chine – une concurrence déloyale et des échanges inégaux. On peut également mentionner les dernières mesures instaurées sous l’impulsion de Joe Biden et de l’OCDE visant à taxer à une moyenne de 20 % minimum les multinationales et les Gafam. Les penseurs de la démondialisation ajoutent la règle d’une nette séparation entre banques d’investissement et de dépôts, la lutte contre les fraudes et même parfois l’abandon du dollar comme monnaie de réserve mondiale, grande requête des pays multipolaristes de l’OCS et des Brics. L’idée générale est qu’il serait possible de donner un autre contenu à la mondialisation, et empêcher que les délocalisations et la désindustrialisation ne continuent d’appauvrir les peuples et de rendre l’UE toujours plus dépendante, donc à la merci, des puissances commerciales asiatiques ou nord-américaines. La démondialisation, longtemps assimilée aux protectionnistes d’extrême gauche ou d’extrême droite, a commencé à être prise au sérieux depuis les effets dévastateurs de la crise financière de 2007-2008 et les mesures d’austérité insupportables pour les peuples qui ont suivi. Le terme est apparu pour la première fois en 2002, sous la plume du penseur philippin Walden Bello, auteur de l’ouvrage Deglobalization (2002), qui explique que la mondialisation s’est construite aux dépens des pays du sud de la planète et qui appelle à un contrôle politique des systèmes économiques ainsi qu’à un démantèlement des institutions financières internationales (notamment la Banque mondiale, le FMI, l’OMC), dans une logique assez tiers-mondiste et dirigiste. Outre-Atlantique, c’est le libéral-conservateur américain Donald Trump qui s’est fait élire en 2017 sur un programme de dénonciation des effets pervers de cette mondialisation jugée dangereuse, source de chômage et de perte de souveraineté au profit de l’ennemi géoéconomique chinois, notamment. Une idée jugée au départ belliciste dans la bouche de Donald Trump mais que Joe Biden semble reprendre à son compte en partie aujourd’hui. En Grande-Bretagne, le Brexit a triomphé grâce au vote des régions dévastées par la désindustrialisation et donc des souverainistes – conservateurs comme travaillistes – ainsi que par l’action de Nigel Farage, créateur de partis politiques eurosceptiques Ukip (Parti pour l’indépendance du Royaume-Uni, 2016), puis le Parti du Brexit (2019). Ses idées seront reprises par un autre leader non réputé pour son tiers-mondisme ou son étatisme, Boris Johnson, qui table non pas sur une démondialisation à la façon des No Global socialisants mais sur une canalisation de la mondialisation en fonction des intérêts premiers de sa nation redevenue souveraine et capable de sortir de tous les traités internationaux et supranationaux jugés attentatoires à la souveraineté. Il est intéressant de noter que chez ces personnalités occidentales, la logique qui a inspiré les travaux de Walden Bello est renversée : alors que chez le penseur philippin, les politiques de démondialisation devaient servir à protéger les pays du Sud de ceux du Nord, les démondialistes d’Occident veulent protéger les pays du Nord des logiques qui dépassent leur souveraineté nationale, des agressions économiques et du dumping social des anciens pays du Sud et de l’ex-tiers-monde devenus émergents ou même riches. En France, des personnalités issues de bords aussi différents que le politique Arnaud Montebourg (PS), l’économiste iconoclaste Jacques Sapir 3 , ou l’économiste et journaliste François Lenglet, ont adapté les thèses des démondialistes à la réalité française et européenne. Arnaud Montebourg, ancien ministre du Redressement productif de François Hollande, s’est emparé du thème du made in France et de la réindustrialisation à la suite de la crise financière de 2008 et des mesures d’austérité drastiques imposées par les dirigeants européens et les instances de Bruxelles, chantres de la mondialisation et de la financiarisation de l’économie. Montebourg rappelle que si les États-Unis dirigent l’ensemble de la technologie mondiale, c’est parce qu’ils protègent leurs technologies et donc leurs intérêts, parce qu’ils ont pratiqué la guerre économique et surtout parce qu’ils n’ont pas laissé faire le marché mondial chez eux, tout en l’exigeant des autres... Et le leadership dans le spatial (lanceurs) qu’ils sont en train de ravir aux Européens est selon lui dû au fait qu’ils ont subventionné Elon Musk et SpaceX, même si en réalité, SpaceX s’est aussi imposé grâce à une série d’innovations et à la supériorité de son business model qui a permis de baisser les prix de production en comparaison avec la Nasa sclérosée. L’homme politique plaide en faveur d’un État fort et reconnaît même que la politique économique de Donald Trump a fonctionné avant la Covid-19 grâce à cette reprise en main de l’économie par le politique en fonction des intérêts nationaux. Il affirme que la France et l’UE devraient suivre l’exemple de Trump face à la concurrence déloyale chinoise en surtaxant les importations de produits chinois et en rééquilibrant l’énorme déficit commercial par une forme de protectionnisme et la fin de la fermeture d’usines ou leur rachat afin de préserver notre capacité de production ainsi que les emplois. Il préconise un capitalisme à l’allemande, comme l’a incarné l’ex-chancelier Gerhard Schröder, aux antipodes du modèle dérégulé anglo-saxon, plus organisé autour de l’humain, des responsabilités, de la participation d’inspiration gaulliste, et il appelle à une reconstruction écologique de l’industrie et de l’agriculture qui favorise les relocalisations et les circuits courts. De son côté, François Lenglet, auteur de La Fin de la mondialisation 4 , explique que cette dernière a été durablement freinée depuis la crise financière et économique de 2008, phénomène renforcé par la crise sanitaire, au point de remettre en cause le « consensus de Washington », cette doxa mondialisante qui posait le primat des échanges commerciaux et des pouvoirs financiers, de moins en moins régulés par les États. L’auteur constate « l’ensablement » de l’OMC, l’Organisation mondiale du commerce – que la Chine a intégrée étonnamment vingt ans plus tôt que la Russie honnie mais dont les règles ont systématiquement été violées par Pékin –, et il voit dans le rapatriement des chaînes de production vers les États-Unis, notamment, le début d’une tendance lourde initiée sous l’ère Obama et poursuivie par ses successeurs. On peut, certes, lui répondre qu’il serait presque impossible de rapatrier la plupart des usines car cela conduirait à l’augmentation du coût de vie que la société américaine ne pourra pas accepter. Il pronostique par ailleurs que les cures de désendettement imposées aux pays touchés par la crise impliqueront un mouvement généralisé de « renationalisation » financière. Selon lui, la crise sanitaire aurait précipité la fin du cycle libéral enclenché dans les années 1960 avec la génération des baby-boomers et qui atteignit son apogée dans les années 1980-1990. Elle légitimerait la reprise en main de l’économie par les États, le retour d’une forme de souverainisme économique et même d’un protectionnisme raisonné. Postmondialisation ? Dans son livre La Démondialisation 5 , l’économiste hétérodoxe Jacques Sapir explique, quant à lui, que la mondialisation doit être complétée, régulée, reprise en main par les États et donc équilibrée par un « patriotisme économique ». Sapir conteste ce qui a été présenté depuis des décennies par les néolibéraux comme le mérite majeur de la mondialisation : les succès universels du libre-échange depuis les années 1990. Chiffres en main, l’auteur rappelle que ces échanges libéralisés dans le cadre de la mondialisation anglo-saxonne n’ont pas induit la forte croissance prophétisée au départ par ses promoteurs : l’impact sur les pays les plus pauvres a été en effet plutôt négatif, et surtout, les seuls cas où la concomitance de la mondialisation et du développement économique s’est vérifiée se situent dans les pays où des « politiques nationales puissantes » ont été instaurées. Pour limiter les échecs de la mondialisation, l’économiste plaide en faveur d’un nouveau Bretton Woods et de la mise en œuvre des idées et méthodes keynésiennes, comme celle consistant à pénaliser les déficits ou les excès de balance des paiements. Il rappelle à ceux qui n’ont qu’une lecture « progressiste » de Keynes et qui l’opposent aux partisans du patriotisme, que ce dernier n’était pas seulement un partisan de la coopération internationale mais d’abord un « farouche opposant aux mécanismes supranationaux qui privent les gouvernements de leur souveraineté ». Pour Jacques Sapir, « l’échec du FMI dans la crise asiatique de 1997 a redonné une vitalité significative aux politiques nationales souveraines ». Comme plusieurs Prix Nobel d’économie, Sapir affirme que la seule solution pour conjurer les conséquences de la crise née de la mondialisation serait d’abandonner l’euro, monnaie incapable de concurrencer le dollar s’il n’est pas soutenu par une Europe-puissance, d’autant que les divergences entre les stratégies économiques des pays de la zone euro sont presque impossibles à supprimer, ce qui compromet la constitution d’une zone économique et monétaire optimale, condition de la viabilité d’une monnaie unique. Sapir est toutefois favorable à une monnaie commune ou d’échange hors des frontières de l’Union européenne. Pour l’auteur, la fin de la mondialisation financière à l’anglo-saxonne, qui a atteint son apogée avant la crise financière de 2008, serait imminente : les indices les plus évidents de cette postmondialisation seraient notamment l’échec des négociations de Doha, le refus de la Chine d’assumer les responsabilités monétaires que la mondialisation était supposée lui imposer et, plus généralement, le retour massif des États stratèges désireux d’imposer à nouveau le primat du politique sur l’économie. Cette tendance, observable tant aux États-Unis, en Hongrie, en Russie, en Grande-Bretagne, qu’en Chine ou ailleurs, serait permise par le fait que le commerce mondial, qui avait augmenté jusqu’en 2011, n’a cessé de se contracter depuis lors, donc bien avant la crise sanitaire, les économies en développement, en transition et développées connaissant toutes un recul. À l’appui de ces constats, le rôle des pays du G7 les plus industrialisés (États-Unis, Canada, Japon, France, Allemagne, Italie et Royaume-Uni) sur le PIB mondial s’est fortement réduit depuis les années 2000 : les pays riches, traditionnellement très ouverts, n’ont cessé de perdre du poids dans le PIB mondial, cédant la place aux émergents et aux Brics les plus développés qui ont rejoint – et parfois dépassé – les pays occidentaux. Or la croissance de ces pays est de moins en moins due à l’extérieur, puisqu’elle repose toujours plus sur des facteurs internes, la Chine elle-même ayant pour objectif stratégique économique d’augmenter son marché domestique et de moins dépendre de l’étranger pour sa production de richesse, tout en continuant, certes, à « miser sur l’intégration à l’économie mondiale » comprise comme à sens de plus en plus unique et à son avantage (voir programmes Made in China 2025 et Obor). Le postulat des démondialistes est que les facteurs qui ont motivé l’ouverture de nombreux pays ont cessé et qu’il existerait maintenant des facteurs alternatifs qui déplaceraient l’intérêt vers l’intérieur. Ralentissement de la mondialisation chinoise et postmondialisation régionalisée Quelques constats relatifs à l’évolution de la mondialisation depuis des siècles et les dernières décennies sont éclairants : il est bon de rappeler que la mondialisation n’a jamais été un processus linéaire et éternel, pas plus qu’elle n’a été exclusivement occidentale. Jusqu’au XVII e siècle, en effet, ce fut la Chine, son argent métal, et ses routes de la soie qui portèrent la première mondialisation, avec les échanges de ses deux produits phares : la porcelaine et la soie. Pékin représentait alors une grande part de l’économie mondiale, jusqu’à ce qu’elle se ferme au monde de sa propre initiative, avec les conséquences dramatiques que l’on sait (guerres de l’opium et réactions impérialistes britanniques, françaises et occidentales). De la même manière, la mondialisation anglo-saxonne (McWorld), lancée par les États-Unis « vainqueurs » de la guerre froide à la fin des années 1980, n’a pas seulement été permise par la chute de l’URSS, l’ouverture consécutive de cet espace ainsi que de l’Amérique latine et de l’Asie du Sud-Est au commerce mondial, mais surtout par l’arrivée de la Chine. Celle-ci a en effet porté la mondialisation par son extraordinaire croissance économique à deux chiffres sur plusieurs décennies, à son immense marché et au fait qu’elle est devenue l’usine du monde. Or ce processus de mondialisation porté par la Chine est en train de s’estomper, après avoir atteint son apogée à la fin des années 2000. Ce constat d’une tendance lourde, qui va marquer les prochaines décennies, a été émis par des spécialistes des échanges internationaux et des chercheurs académiques peu soupçonnables de parti pris idéologique radical. Dans leur ouvrage collectif qui fait autorité, les Prs Peter J. Buckley, Peter Enderwick et Adam Cross, auteurs de l’ouvrage de référence International Business 6 , expliquent que le processus de mondialisation n’a plus de nouveaux grands marchés à intégrer, qu’après avoir été portée par Pékin, qui l’a accélérée durant des décennies, après avoir intégré son marché et son industrialisation au monde, la globalisation libérale à l’anglo-saxonne ne peut pas aller plus loin, d’autant que la Chine, devenue une superpuissance, a comme priorité de développer un marché domestique et de s’autonomiser en cessant de n’être que l’usine du monde des entreprises américaines et occidentales. Les auteurs estiment que ce mouvement de fond, qui n’est qu’à ses débuts, va conduire inévitablement à un ralentissement de la mondialisation, tandis que les échanges, qui ne vont pas s’arrêter, bien sûr, vont se développer sur un autre modèle, celui des économies régionalisées ou des grandes régions économiques mondiales (Union européenne ; marché du Sud-Est asiatique, Union eurasiatique et CEI russophones ex-soviétiques, marché nord-américain, voir cartes n o 3 et 4). Cette régionalisation marchande ou postmondialisation correspond en grande partie au paradigme des zones civilisationnelles de Samuel Huntington et elle annonce la consolidation de pan-regions fondée sur des intérêts économiques, des sphères d’influences géographiques communes qui vont de pair avec une multipolarisation géopolitique. Le monde va donc se décliner en zones géocivilisationnelles (voir cartes n o 2, 3 et 4) qui privilégient les échanges intrazones, sans supprimer les échanges intercontinentaux les plus incontournables. Ce constat est également émis par Chetan Sehgal et Michael Lai, analystes de la Franklin Templeton Emerging Markets Equity, qui prennent acte du fait que le coronavirus a accentué la fracture entre la Chine et le reste du monde, notamment occidental, puis intensifié un processus préexistant de démondialisation. Constatant que la crise a nettement aggravé la défiance entre la Chine et l’Occident, observée avant même l’apparition de la Covid-19, ils expliquent, chiffres à l’appui, que l’objectif du pouvoir chinois consiste à axer de plus en plus massivement la consommation sur son marché intérieur, passant ainsi du statut « d’usine du monde » à la production de biens technologiques de pointe (puces informatiques, etc.) et à une croissance à venir de plus en plus fondée sur le développement du marché domestique et la désexternalisation. Par ailleurs, la crise sanitaire a mis en lumière l’extrême fragilité des chaînes d’approvisionnement mondiales, ce qui a provoqué une prise de conscience des élites nationales des autres grands pays décidés eux aussi à atténuer la trop grande dépendance envers la Chine. La conclusion des auteurs est que le phénomène de mondialisation connu ces vingt-cinq dernières années, qui a largement été fondé sur l’intégration de la Chine dans l’économie capitaliste mondiale, s’estompe. En fait, si tous les facteurs lourds qui ont promu la Chine comme usine du monde sont loin d’avoir disparu, sachant que l’Europe et le monde ne pourront pas se passer d’elle du jour au lendemain et relocaliser des gigantesques usines et industries implantées ou utilisées par les firmes occidentales et multinationales depuis des décennies, Pékin est tout de même en train de perdre une part de son intérêt. Premièrement, les coûts de production et de main-d’œuvre sont moins compétitifs que jadis. Deuxièmement, les prix de revient en Chine vont continuer à augmenter progressivement en raison des pressions sur le respect des règles de travail exercées par l’OMT, en particulier, et par les entreprises occidentales clientes, en général, de plus en plus contraintes par les normes ESG (gouvernance et environnement) et par la prise en compte des externalités négatives (pollution, déchets...). Or ces externalités négatives, qui incluent notamment la valeur carbone, en pleine croissance, sont calculées sur l’ensemble de la chaîne d’approvisionnement, dont le transport, ce qui surenchérit les coûts. Cette tendance lourde va être déterminante dans les choix des entreprises clientes de la Chine, notamment dans les pays occidentaux à la pointe sur toutes ces normes. À cela s’ajoutent également les logiques de taxe carbone aux frontières, qui sont en train d’émerger un peu partout, notamment en Europe, ainsi que les tensions sino-américaines, loin d’être résolues malgré l’arrivée au pouvoir de Joe Biden, qui semble avoir repris à son compte la guerre économique déclarée par Donald Trump à la Chine, certes sans le dire aussi brutalement. De la troisième vague de mondialisation à la démondialisation Revenons maintenant sur le processus par lequel, après avoir connu son apogée dans les années 2000, la mondialisation marchande à l’anglo-saxonne, nommée par les académiques « troisième vague » de mondialisation, a commencé à être remise en cause et à décliner 7 . Cette troisième vague, qui date des années 1990 dans un contexte de chute de l’Empire soviétique, a été caractérisée par l’entrée de l’immense marché chinois et de l’usine du monde chinoise dans la mondialisation depuis les années 1980, puis par l’intensification de trois processus, aujourd’hui ralentis ou ayant connu leur apogée : des échanges commerciaux (marchandises et services : « mondialisation marchande ») et des flux de capitaux (transferts monétaires et investissements directs et indirects : « mondialisation financière ») ; des flux humains (immigration, tourisme, voyages d’affaires : « mondialisation des personnes ») ; et des flux d’informations (« mondialisation digitale »). L’erreur fondamentale a consisté, durant des années, à surestimer ces trois intensifications et à y avoir une fatalité qui aurait conduit à un processus inéluctable de désouverainisation et de dépossession des États de leurs prérogatives régaliennes, financières et économiques. En réalité, entre 1980 et 2020, l’intensification des échanges commerciaux n’a pas été aussi spectaculaire qu’on le dit, et la mondialisation a concerné avant tout celle des flux de capitaux, des flux humains et surtout des flux d’informations, mais n’a pas détruit les souverainetés des États puissants. Ces derniers l’ont au contraire instrumentalisée pour asseoir leur puissance et parfois même leur hégémonie. Essayons ici de faire justice de quelques idées reçues et confusions qui font croire que les adeptes de la démondialisation seraient hostiles aux échanges économiques et voudraient « revenir en arrière ». Avant 1980, l’abaissement des barrières douanières s’était réalisé de manière extrêmement progressive dans le cadre des négociations internationales du Gatt (actuel OMC) avec une seule exception régionale : l’Europe qui, à partir de 1957, abolissait ses barrières douanières au sein d’un marché intérieur de 6 pays, puis 9, puis 12, puis 19, puis les 28 pays qui composaient l’Union européenne jusqu’au Brexit. Cependant, à partir des années 1990, les accords de Marrakech et la création de l’OMC, qui ont regroupé 159 pays auxquels se sont jointes la Chine et la Russie, ont abouti à un abaissement généralisé des barrières douanières dans le monde et à la mise en place d’un tribunal des entraves au libre-échange, de sorte que, vu de l’Union européenne, hormis le contrôle du respect des normes et quelques taxes symboliques, il n’y avait plus de différence entre les importations venues d’Europe et celles venues de Chine. Or si l’on retire les échanges intra-européens des calculs du taux de pénétration des pays européens à l’extérieur, en réalité, nous sommes toujours restés bien moins dépendants de l’extérieur qu’on le dit, car près de 80 % des échanges globaux ont toujours été effectués en « intrazone ». Certes, en valeur, les marchandises qui traversent les océans grâce au recours massif aux containers sont au niveau mondial aujourd’hui le double de celui de 1980. Cette augmentation en valeur varie selon les zones géographiques : vue d’Asie, la valeur des marchandises exportées a été multipliée par quatre sur cette période, tandis que vue d’Europe, des États-Unis et d’Afrique, elle n’a crû que de 50 % dans l’intervalle. Ainsi, hormis l’Asie du Sud-Est, cette progression se situe en réalité dans la lignée de la croissance du commerce extérieur observée depuis 1950. Il y a eu donc surtout continuité plutôt qu’explosion du commerce extérieur. Doublement du commerce extérieur en valeur, mais augmentation très modérée du taux d’importation Les États ont en réalité toujours continué à échanger essentiellement les richesses à l’intérieur de leurs frontières ou d’une même zone régionale. Le taux de pénétration des économies (part des importations) a certes augmenté partout, mais pas du tout dans les proportions qu’on imagine. Pour information, un pays qui importe peu a un taux d’importation inférieur à 20 %, comme les États-Unis et la Chine, et un pays qui importe beaucoup, 50 %, ce qui est le cas des petits pays d’Europe comme le Benelux ou l’Autriche. Or entre 1980 et 2019, aucun pays n’a changé de catégorie, même si tous ont vu la part de leurs importations augmenter. Ainsi, en France, les importations sont passées de 25 % en 1980 à 32,8 % du PIB en 2019 8 , ce qui est peu. À l’échelle européenne, les importations de l’UE vis-à-vis du reste du monde sont passées de 15 à 20,3 % 9 , ce qui est finalement peu, d’autant qu’elles résultent essentiellement des importations de l’Allemagne. Aux États-Unis, les importations sont passées, entre 1980 et 2019, de 10 à 14,6 % du PIB, ce qui est encore plus faible. Quant à la Chine, soi-disant hypermondialisée, elle n’importait que 17,3 % de son PIB en 2019 10 . Certes, nous avons déjà vu plus haut que Pékin utilise la mondialisation marchande comme un vecteur d’accroissement et de projection de puissance, son objectif étant de remplacer les entreprises occidentales par des sociétés chinoises et de préparer l’éviction des États-Unis de la mer de Chine, de Taiwan, et du leadership mondial. La Chine a donc une lecture de la mondialisation totalement opposée à celle, « mondialiste », de l’Occident, et c’est dans ce contexte que les firmes digitales et multinationales chinoises BATX ont bloqué en Chine les Gafam américains. Ceci dit, après la crise sanitaire, la Chine devrait voir la part de ses importations diminuer de façon significative, notamment celles en provenance d’Europe, et donc se démondialiser. Par ailleurs, on assiste en Europe à des relocalisations permises par la robotisation, tandis que la Covid a permis de réfléchir sur les secteurs stratégiques. Toutefois, répondent les adeptes de la mondialisation marchande, l’Europe présente aujourd’hui un taux d’importation vis-à-vis de la Chine bien trop important pour permettre à ses industriels de s’en passer à court terme. Il est vrai que les mesures préconisées par Arnaud Montebourg, François Lenglet ou Jacques Sapir, fondées sur le protectionnisme raisonnable et la réindustrialisation, ne peuvent pas produire des effets immédiats. On peut, certes, répondre que, si elles ne sont pas adoptées par les responsables politiques et économiques des pays de l’UE, ce n’est pas en raison de leur impossibilité mais parce que ces élites occidentales, surtout européennes, sont inhibées par un mondialisme de principe et sont pieds et poings liés aux États-Unis, aux institutions à prétention supranationale, et aux multinationales qui n’y ont aucun intérêt. Or ceci n’est pas immuable. Par ailleurs, la globalisation est loin de se résumer aux échanges commerciaux et on peut même imaginer une postglobalisation avec bien moins d’échanges commerciaux transcontinentaux et constituée essentiellement de mouvements de capitaux, de personnes, de flux d’informations, de relocalisation et régionalisation des échanges. Des échanges de services demeurés localisés On distingue souvent les échanges de services des échanges commerciaux. En pratique, la catégorie des services est un fourre-tout, dans lequel on intègre aussi bien les prestataires de services financiers et de services d’information que les distributeurs de produits commerciaux. Or les distributeurs de produits commerciaux ne sont que le bras commercial d’échanges de produits, tels les magasins et les restaurants. Même avec Amazon et le commerce en ligne, il n’y a rien de plus local que les services de distribution 11 . Et dans l’avenir, de plus en plus de firmes modestes on-line vont agir comme Uber et les Gafam, mais à un niveau plus local, plus territorialisé, et plus contrôlable par les États. On peut mentionner les exemples d’applications locales concurrentes d’Uber dans des pays européens, comme Free Now, présente dans 100 villes en Europe ; Taxi EU, qui dessert 160 villes européennes, surtout allemandes ; Gett, actif dans 100 villes d’Europe occidentale et orientale ; G7, 100 % française, qui dessert Paris, d’autres métropoles françaises et 120 villes européennes ; LeCab, utilisable à Paris et environs ; Cabify, application espagnole de taxi desservant Barcelone, Alicante, Madrid, Valence, notamment. Maints exemples existent dans d’autres secteurs : l’appli de coiffure à domicile française Popmyday, le réseau immobilier Idealista (Espagne, Italie), ou encore, dans le domaine de l’alimentation, OptiMiam, l’application française antigaspillage qui met en relation restaurateurs et consommateurs. Le retour du bilatéralisme, reflux des investisseurs internationaux et reréglementation financière À l’échelle planétaire, et si l’on sort de l’occidentalo-centrisme déformant, véritable biais cognitif, on constate que les échanges commerciaux ne se réalisent plus dans un contexte multilatéral sous le regard du tribunal de l’OMC, mais essentiellement dans le cadre d’accords bilatéraux entre États souverains, souvent méfiants vis-à-vis des accords internationaux contraignants. Ainsi, le projet de traité commercial transatlantique avait été une première tentative de bilatéralisme entre l’Europe et les États-Unis 12 . Le but n’était pas de baisser les droits de douane – désormais quasi inexistants – mais de diminuer les obstacles normatifs aux échanges. L’échec de ce traité a été contourné avec l’accord Canada-Europe qui permet aux États-Unis – eux-mêmes liés au Canada au travers de l’Alena – de mettre un pied en Europe. C’est donc plus ici du bilatéral que du multilatéral, une logique de blocs bien plus qu’une logique universelle à la Fukuyama (voir cartes n o 2, 3 et 4). Bref, des échanges économiques entre nations souveraines et blocs géocivilisationnels et des accords régionalisés entre États souverains jaloux de leurs intérêts. Plusieurs exemples montrent que les logiques nationales priment et que seuls les dindons de la farce prennent encore les accords internationaux de libre-échange pour des textes sacrés que personne n’oserait contourner ou trahir : si l’accord sur le Brexit de décembre 2020 a donné l’idée aux États-Unis de l’ex-président Trump de conclure un accord bilatéral avec le Royaume-Uni afin de poursuivre leur implantation en Europe, celui entre l’Union européenne et la Chine sur les investissements, adopté lui aussi en décembre 2020, a essentiellement permis à la Chine de contourner d’importants obstacles normatifs au commerce et aux investissements en Europe, à son seul avantage... Le passage du multilatéralisme de l’OMC au bilatéralisme avec les États-Unis, le Canada, le Royaume-Uni ou la Chine ne signifie pas nécessairement que l’Europe gagnera à ce changement de régime, mais cela démontre par la négative que Lenglet, Montebourg et Sapir, et avec eux ceux que l’on classe dans la catégorie de souverainistes, n’ont pas tort de dire qu’un patriotisme économique pourrait mieux préserver la santé des économies européennes. Tout se passe donc comme si l’Europe du XXI e , tiraillée par des intérêts nationaux différents, subissait le même sort que la Chine au XIX e avec les traités inégaux. À l’inverse, les États-Unis de Donald Trump se sont lancés dans un conflit commercial avec la Chine que Joe Biden n’a pas l’air de contredire dans les faits, intérêt national oblige... Il est vrai que l’économie américaine a un taux d’importation moins élevé que l’Europe. L’administration Biden ne peut que poursuivre cette politique, car les États-Unis sont une vraie puissance souveraine, et Joe Biden ne semble pas se laisser dicter sa conduite économique par les groupes de pression californiens de la Silicon Valley ou les Gafam, récemment recadrés et visés par des politiques de réajustement de taxes à la hausse. L’intensification des mouvements de capitaux a été le phénomène le plus marquant de la mondialisation, résultat de politiques publiques des années 1980. Cette mondialisation financière, accompagnée d’une extrême financiarisation de l’économie et de dérégulations, a donné lieu à des phénomènes incontrôlables comme les subprimes, à l’origine de la crise financière de 2008, fruit de l’irresponsabilité des gouvernements, des banques et des agences de notation. Derrière l’internationalisation de la dette publique, on trouvait alors une volonté délibérée des États d’élargir le nombre de leurs créanciers et d’attirer des capitaux étrangers, ceci dans le cadre d’un vaste mouvement de dérégulation de la finance internationale, de privatisation de facto des banques centrales et des dettes qui ont rendu les États tributaires d’intérêts financiers privés au détriment de leur souveraineté. Ce processus a connu un ralentissement en 2008. Depuis lors, tirant les leçons de la crise financière, les États et leurs banques centrales se sont appliqués à défaire les mesures de dérégulation qu’ils avaient encouragées entre 1985 et 2008. Ce mouvement de reprise en main et de rerégulation de la finance mondiale par les États a été également porté par les mécontentements des peuples scandalisés par le fait que les mêmes dirigeants qui leur ont imposé une austérité insoutenable ont sauvé des banques qui avaient précipité la crise des subprimes. Jusqu’à 2008, les géants américains des agences de notation de crédit ont fait la pluie et le beau temps, dans un contexte de dérégulation et de soumission des États aux agences et institutions de crédit privées, phénomène aujourd’hui critiqué et remis en cause. Connues pour avoir contribué à cautionner des endettements massifs d’États insolvables et coupables d’avoir falsifié leurs comptes publics, comme la Grèce, on peut citer principalement les trois grandes agences de notation Fitch Ratings, Moody’s et Standard & Poor’s (S&P), qui ont un véritable monopole dans la notation des États en matière d’endettement 13 . Ces agences détiennent à elles seules 90 % des parts de marché en Europe, selon l’Autorité européenne des marchés financiers (AEMF). La dépendance est unanimement considérée problématique, car les notes qu’elles attribuent aux titres des dettes déterminent leurs achats sur les marchés par la Banque centrale européenne. Or ces agences, fort liées aux pouvoirs et aux intérêts anglo-saxons, ont maintes fois brillé par leur manque de déontologie, notamment lors de la crise de 2008 qu’elles ont contribué à faire éclater, puisqu’elles ont accordé des notations favorables aux fonds de titrisation (subprimes), ces créances douteuses qui ont affaibli les banques et fait trébucher l’économie financière mondiale. Derrière les « Big Three », trente petites agences de notation spécialisées européennes existent, mais elles ne comptent que pour très peu et les Européens peinent à rééquilibrer cette situation léonine qui rend l’Europe vulnérable aux intérêts américains et de la mondialisation anglo-saxonne. Malgré tout, le fait que l’UE et d’autres États aient décidé de réglementer ces agences de notation est une tendance lourde depuis 2010, date à laquelle une nouvelle réglementation a été adoptée à l’échelle européenne, l’AEMF s’occupant de la surveillance des agences opérant en Europe. Celles-ci doivent désormais rendre leurs modèles et analyses publics et les obligations imposées sont désormais juridiquement plus contraignantes. De plus, un investisseur ne peut plus détenir plus de 5 % du capital de deux agences de notation différentes, et une agence ne peut plus noter une entité dont elle possède plus de 10 % du capital. Dans l’avenir, les États n’auront pas d’autres alternatives que de renforcer cette tendance et les Big Three anglo-saxonnes finiront tôt ou tard par voir leur règne disparaître. La déréglementation financière, remise en cause depuis 2018, avait consisté en une série de textes adoptés dans les années 1980 tendant à assimiler le monde des marchés (les titres échangés en Bourse) et le monde du crédit (la monnaie prêtée) qui étaient jusque-là séparés. Elle avait eu pour effet de rendre les titres presque aussi fongibles que la monnaie, grâce à leur dématérialisation (plus de titres papier) et leur valorisation permanente (principe de la fair value). Initiée au début dans un cadre national, elle s’était propagée grâce à la levée du contrôle des changes, la suppression des restrictions à la création d’entreprises par des étrangers (investissements directs) et à l’entrée d’étrangers dans le capital de sociétés existantes (investissements indirects), puis par l’autorisation, en 1985, des banques à effectuer des opérations de marché (appelé en France et en Grande-Bretagne le « big bang »). Les investissements indirects s’étaient multipliés avec l’essor des Bourses dans les années 1980. En France, la veille de la crise de 2008, la part des actionnaires étrangers frôlait les 50 % des entreprises du CAC 40, en partie issue de privatisations, et elle est tombée ensuite à 35 % après la crise. Ce ne sont toutefois pas les privatisations qui sont à l’origine de la prise de contrôle de nos entreprises par des étrangers, mais une déconnexion des marchés financiers de la sphère réelle. Ainsi, l’attrait des investisseurs internationaux pour les produits financiers des autres pays résulte du développement de « clones » de titres au travers de la pratique des produits dits « dérivés », de la « titrisation » et de la « collatéralisation 14 », trois pratiques qui permettent aux investisseurs internationaux de mettre un pied sur un marché étranger tout en pouvant le fuir rapidement en cas de crise et qui mêlent étroitement banques et marchés, dans ce que l’on appelle officiellement depuis la crise de 2008 la « finance de l’ombre » (shadow banking). Ces trois pratiques sont aujourd’hui remises en question et bien plus encadrées par les États que jadis, voire parfois prohibées. Reréglementation financière, effets du Brexit et renationalisations tous azimuts La tendance à la démondialisation a en fait commencé dès la crise de 2008 avec une vague de réglementation aux États-Unis (Dodd-Frank Act de 2012, grande loi financière d’Obama qui régulait la finance et fit réduire d’un tiers les dérivés dans le monde), puis en Europe, avec le paquet réglementaire de Michel Barnier qui a entraîné une décrue sensible, dès 2014, du volume des dérivés. La crise des subprimes a terni l’image de la titrisation qui a également décru. Quant à la collatéralisation, elle a perdu beaucoup de sens depuis que les banques centrales acceptent comme « collatéraux 15 » des titres privés moins cotés que les titres publics. Un début de séparation des banques de détail et des banques d’affaires (Volcker Rule aux EU, rapport Vickers au Royaume-Uni, lois de séparation des activités de marché françaises et allemandes) a ainsi été mis en place afin de réduire la contagion des activités de marché vers les activités de crédit. Cette séparation efface en partie les effets du big bang de 1985 et abîme la gradation continue des taux entre les crédits bancaires et les financements de marché sur laquelle se fondait l’efficacité des politiques monétaristes depuis les années 1980 jusqu’à la crise de 2008. Le Brexit a quant à lui scellé la perte d’influence de la City sur la réglementation financière européenne. En réalité, cette perte d’influence avait commencé dès 2010 avec l’arrivée de Michel Barnier au poste de commissaire au marché intérieur en remplacement du très libéral Charlie McCreevy. Une législation européenne très favorable aux contrôles a été alors mise en place sous son mandat. Paradoxalement, les Anglais se sont mis à jouer sur le même terrain et, à la suite du rapport Vickers, ont séparé notamment beaucoup plus fortement que la France et l’Allemagne les activités bancaires pour les particuliers et les PME des activités de marché. C’est comme si la suppression de la mise en concurrence de Londres, Paris et Francfort avait eu pour effet de favoriser la reréglementation dans chacun de ces pays. Le désintérêt pour la City s’est exprimé notamment dans les positions en faveur d’un hard Brexit de Boris Johnson. L’accord final négocié en décembre 2020, s’il maintient l’Angleterre dans l’Union douanière, empêche toutefois la City d’offrir ses services sur le continent. Certes, cela n’empêchera pas les capitaux du continent de traverser la Manche pour bénéficier de services financiers sur mesure, mais même sur ce terrain, on pourrait s’attendre à un retour du contrôle des changes. Sur le plan des rachats d’entreprises, la démondialisation s’exprime également par des décisions visant à protéger un marché domestique vis-à-vis de tentatives de prise de contrôle par des puissances étrangères. En France, par exemple, le rachat par le groupe canadien Couche-Tard de Carrefour, premier employeur français, a été empêché au motif de la défense de l’intérêt national. De la même manière, celui du fleuron français de la vision nocturne, Photonis, fournisseur de l’armée française, par l’américain Teledyne, a été interdit par Bercy. Les récurrents veto de l’État français sur des rachats de sociétés françaises par l’étranger ont été favorisés notamment par le décret de 2014, à l’initiative d’Arnaud Montebourg, qui soumet les achats de grandes entreprises françaises liées aux secteurs stratégiques (transports, aérospatial, high-tech, etc.) à l’autorisation de Bercy. Sur le plan européen, des voix politiques de plus en plus fortes réclament un « Buy European Act » sur le modèle du Buy American Act des États-Unis pour réserver aux entreprises européennes une part substantielle des marchés publics, systématiquement ouverts aux entreprises d’États étrangers parfois hostiles et souvent concurrents. Monétisation et nationalisation de la dette publique Un autre effet du quantitative easing des banques centrales a été de réduire l’internationalisation de la dette publique. En effet, dans le cadre des politiques monétaires, les banques centrales reçoivent traditionnellement des titres de dette publique en échange des injections de liquidité, ce que l’on appelle la collatéralisation. Or l’augmentation considérable de ces injections des banques centrales les a amenés à récupérer d’énormes quantités de dette publique. Aux États-Unis, la Fed a ainsi souscrit, en 2020, 65 % des nouvelles émissions de dette publique et ceci s’est poursuivi en 2021. Ce phénomène s’observe même au sein de la zone euro, où la BCE demande à la Banque de France de recevoir en collatéral les bons du Trésor et les OAT français, et à la Bundesbank de prendre exclusivement du Bund allemand. En zone euro, l’année 2021 devrait voir franchir le taux de 50 % de la dette publique détenue par leurs banques centrales respectives. Cette situation engendre de nombreux débats sur l’opportunité ou non d’annuler cette part de dette publique qui est en quelque sorte autodétenue. Il est probable que cette annulation se fera, sous des formes plus ou moins masquées. Par exemple, même sans éteindre la dette publique, il suffit de présenter dans les comptes nationaux les banques centrales dans la rubrique « administration publique » pour que la dette détenue par elles disparaisse des statistiques. Bien entendu, ce genre d’entourloupe risque d’entraîner l’illusion d’un refinancement indéfini de l’État à partir de la planche à billets et donc – à terme – de l’inflation, avec également des risques de variation de changes forts, ce qui va détourner les investisseurs étrangers à la recherche de placements sûrs. Cela signifie-t-il que souverainistes et marxistes étatistes et antiaustérité ont raison de dire que l’on pourra ne pas payer les dettes ? Oui ! répondent certains économistes. Mais à condition de dire clairement que ce sera la seule et dernière fois pour les cinquante ans à venir, afin de ne pas relancer les anticipations d’inflation, et tous en même temps : UE, États-Unis, Suisse, Royaume-Uni, Japon, afin de ne pas entraîner de fuites de capitaux. Flottement des changes et retour au contrôle des changes La suppression du contrôle des changes dans les années 1980 a été un puissant facteur de mondialisation. Depuis quelques années, le retour du contrôle des changes résulte en premier lieu de la lutte contre le blanchiment et le terrorisme harmonisée au niveau mondial par le Gafi à la suite des attentats du 11 septembre 2001. Il se double d’une coopération fiscale renforcée, mise en place de manière multilatérale entre les États européens et surtout de manière unilatérale, voire particulièrement intrusive, par les États-Unis avec la loi Fatca 16 . Par ailleurs, depuis décembre 2020, le Congrès américain a adopté une loi imposant aux propriétaires de sociétés-écrans de divulguer leur nom au fisc. Ces sociétés-écrans, basées aussi bien au Delaware que dans les Caraïbes, sont les coffres-forts des investisseurs en private equity. Ce contrôle des différentes formes de blanchiment et d’évasion fiscale freine les investissements étrangers privés. Seuls les investissements à l’étranger passant via des entités « régulées » comme les banques ou les grands fonds d’investissement (ces derniers sont encore peu régulés, mais devraient l’être prochainement dans le cadre de la lutte contre le shadow banking) pourront continuer, et à condition de ne plus permettre d’évasion fiscale. La suppression de la convertibilité des dollars en or en 1972 avait entraîné à partir de 1976 une brève période de flottement qui a été stoppée en 1986 par les accords du Plaza. À compter de cette date, un système de change plus ou moins fixe a été mis en place avec la constitution de zones de change fixe (rattachement des monnaies émergentes au dollar) ou à monnaie unique (création de l’euro). Cela avait, malgré les nombreuses crises de change, donné confiance aux investisseurs étrangers qui ne craignaient plus de voir leurs investissements se déprécier à la suite d’un effondrement du cours de la monnaie du pays dans lequel ils avaient investi. Cependant, ce système de change fixe a eu un coût social très élevé, notamment dans les pays émergents (crise argentine de 2001). La crise de 2009 a définitivement découragé les pays émergents à se raccrocher à une zone monétaire forte. La Chine a toujours refusé d’arrimer sa monnaie à une autre, ce qui lui a permis de pratiquer une sous-évaluation systématique de sa monnaie et donc de vendre ses produits moins cher. Les pays d’Europe de l’Est continuent pour le moment d’indexer leur monnaie sur l’euro car, en échange, ils bénéficient des délocalisations des groupes allemands et français. Mais cette délocalisation commence à refluer et les tensions peuvent remettre en cause le lien de change fixe (currency peg) avec l’euro. En 2020, les États francophones d’Afrique centrale et occidentale ont décidé d’abandonner le couplage du franc CFA à l’euro et ont créé une nouvelle monnaie commune, l’eco, qui sera à terme gérée en change flottant tant par rapport à l’euro que par rapport au dollar. La généralisation de change flottant implique une augmentation du risque de change pour les investisseurs étrangers qui retirent leurs billes, mais en même temps, une plus grande autonomie pour l’industrie locale qui peut se développer à moindres frais. Ceci participe également du processus de démondialisation car les investisseurs étrangers ont horreur du change flottant qui présente le risque de déprécier leurs actifs. L’arrêt durable des voyages d’affaires et du tourisme de masse Les voyages d’affaires et le tourisme de masse ont été stoppés net par les différents confinements. Dans les aéroports français, la fréquentation est tombée à 5 % pendant les périodes de restriction et n’est remontée qu’à 19 % pendant les périodes de déconfinement. Le recours aux téléconférences a offert aux grandes entreprises le prétexte idéal pour réduire drastiquement les frais de représentation (environ 30 % de la masse salariale des cadres). La nécessité d’adapter les aéronefs aux normes sanitaires va renchérir au moins pour plusieurs années le coût des voyages aériens. Dès mai 2020, Boeing a démantelé une grande partie de ses avions en construction et installé leurs carcasses en Arizona en attendant l’édification de nouveaux types d’avions garantissant la non-contamination. Quant à Airbus, il n’a pu tenir que grâce à ses commandes passées. Combiné avec les restrictions aux frontières (certificats de vaccination), il pourrait en résulter une diminution de long terme du tourisme transfrontalier ou tout au moins du tourisme nécessitant un transport aérien, lequel redeviendrait, comme dans les années 1970, le privilège des classes aisées et ne serait plus accessible aux classes moyennes tant d’Occident que d’Orient. La démondialisation est ici également pleinement en œuvre. 1. 1723-1790, Recherche sur la nature et les causes de la richesse des nations, livre 2, 1776. 2. Francisco Vergara, Les Fondements philosophiques du libéralisme, La Découverte, 14 février 2002. 3. Arnaud Montebourg, Votez pour la démondialisation, préface d’Emmanuel Todd, 2011. 4. François Lenglet, La Fin de la mondialisation, Paris, Fayard, 2013. 5. Paris, Seuil, 2012. 6. Oxford University Press, 2018, p. 652-665. 7. La première mondialisation remonte aux routes de la soie et à l’empire de Gengis Khan (1165-1227) puis à ses successeurs mongols au XIII e siècle. Elle s’est intensifiée avec les découvertes du Portugal et son projet d’expansion globale. La deuxième vague a commencé avec la mise en service du canal de Suez en 1869, point stratégique d’ouverture d’une nouvelle route vers les Indes. Ceci a coïncidé avec l’âge d’or de l’impérialisme européen fondé sur l’exploitation et le commerce des ressources naturelles. La troisième vague a été favorisée par l’abandon de l’étalon or par Nixon en 1971, la chute de l’ex-URSS et l’ouverture de la Chine et des pays d’Europe orientale au commerce mondial et au capitalisme. 8. Insee, comptes nationaux 2020. 9. Parlement européen : PIB de 14 000 milliards d’euros et 2 842 milliards d’importations de biens et services. 10. Banque mondiale, voir https://donnees.banquemondiale.org. 11. Amazon et Uber sont globalisées, mais la logistique est assurée de manière locale par des entrepôts et des VPC locaux. 12. Contourné par le traité avec le Canada et sans doute via le RU grâce à l’accord sur le Brexit. 13. Les dettes publiques des États développés sont cotées par les agences de notation entre AAA (Allemagne) et BBB – (Grèce). Les particuliers ont une espérance de vie de 80 ans et leur dette est moins bien cotée (par les banques prêteuses), entre simple A et B+, rarement C (en cas de surendettement) et jamais D. Les dettes des entreprises sont cotées A+ C, ou D. 14. Un dérivé consiste à créer un actif qui représente le droit d’en acheter un autre (« sous-jacent »). La titrisation consiste à créer un actif regroupant plusieurs sous-jacents. La collatéralisation (« rehypothécation ») vise à remettre temporairement en garantie un actif à un tiers qui le remettra à un autre tout en l’inscrivant à son actif. 15. Les collatéraux sont des titres d’État donnés aux banques entre elles ou à la banque centrale pour obtenir de l’argent. 16. La loi Fatca, adoptée en 2010 sous l’administration Obama, obligera certains expatriés américains à abandonner leur nationalité américaine afin de ne pas subir des peines de prison ou d’amendes disproportionnées. Conclusion Gouverner c’est prévoir, le désordre actuel était prévisible... Le 31 juillet 2019, le général Thierry Burkhard, chef d’état-major de l’armée de terre (Cemat), déclarait : « Il faut être prêt à s’engager pour un conflit de survie [...]. Le rapport de force redevient le mode de règlement des différends entre nations [...], nous devons résolument nous y préparer en gardant à l’esprit que le combat de haute intensité devient une option très probable... » Rien de très rassurant... Mais un homme – ou une nation – averti en vaut deux, d’autant que notre général précise à juste titre que « préparer la guerre ne peut souffrir aucune approximation »... Les guerres peuvent être, certes, évitées. Cependant, on a plus de chance d’y parvenir en s’y préparant – si vis pacem, para bellum – qu’en assénant des lieux communs pacifistes et multiculturalistes assortis de « nous sommes tous des citoyens du monde » ou « les frontières sont meurtrières », ce qui est d’ailleurs souvent tout le contraire car les prédateurs géopolitiques (impérialistes, totalitaires nazis ou communistes, islamistes, etc.) se nourrissent de leur absence ou de leur porosité... Cette nécessité de la préparation a été rappelée de façon tragique par la crise sanitaire, que certains ont assimilée à une guerre. Nous l’avons vu tout au cours de cet ouvrage : si la politique consiste à préserver le bien commun, donc la communauté nationale, la pérennité de la nation, de ses valeurs, de son intégrité territoriale et la sécurité de ses citoyens (les trois grandes composantes de toute entité géopolitique : territoires, population et valeurs fondamentales défendues par les institutions gouvernementales), alors la politique, comme la géopolitique, ne consiste pas seulement à gérer, comme on l’entend trop souvent (« gestion de la Cité »). Cette vision réduite, dépolitisée et, en fin de compte, bureaucratique de la politique, est loin d’être complète. Car la Politique avec un grand P consiste avant tout à prévoir, à anticiper les risques et menaces, et donc à concevoir des stratégies de long terme pour défendre la cité au sens de patrie ou de nation, et pas seulement au sens de vie politicienne ou de géographie électoraliste. Nous avons vu plus haut que dans ce domaine, les démocraties occidentales, paralysées par le court-termisme de leur vie politique très polarisée – de plus en plus soumise à la tyrannie des médias et réseaux sociaux sans contre-pouvoirs puis des lobbys ou institutions extraterritoriales –, ont le plus grand mal à défendre les intérêts de leurs citoyens. Les crises économique et financière de 2007-2008, sanitaire et économique de 2020-2021, comme les risques migratoires, les nouvelles menaces terroristes, séparatistes, fondamentalistes islamistes, sans oublier les risques environnementaux, « cyber » et autres, ont démontré depuis des années que lorsque des dirigeants ne jugent pas primordial de prévoir, c’est l’ensemble de la communauté qui finit par subir. Le même manque de prévision et d’éthique de responsabilité, pour paraphraser Max Weber, a été confirmé ces dernières décennies au niveau des institutions internationales elles-mêmes, trop souvent pavées de toutes les vertus aux yeux des multilatéralistes qui oublient qu’elles ne sont que le fruit et l’expression de la volonté « originaire » des États souverains. Ces institutions (ONU, FMI, OMS, etc.) sont instrumentalisées tantôt par les puissances souverainistes les plus proactives et les plus soucieuses de leurs intérêts nationaux, tantôt par des intérêts économiques privés et des puissances transnationalistes. Le projet de gouvernance mondiale, utopie dangereuse portée par les États-Unis, l’Union européenne et les adeptes du Village mondial, ne peut qu’accentuer la nouvelle ligne de fracture qui oppose multipolaristes et occidentalistes. Les institutions multilatéralistes ne sont pas inutiles si elles demeurent des instances de dialogue, mais elles ne remplaceront jamais les pouvoirs nationaux qui représentent les volontés et les identités des peuples souverains et qui sont la source même de leur pouvoir aucunement inamovible. Car aucun État n’est obligé de demeurer membre ad vitam aeternam d’une institution internationale, surtout si celle-ci est pilotée par des élites qui ambitionnent de réduire la souveraineté pourtant première d’un État. Même la question de l’énergie et de l’environnement en est une illustration, comme nous l’avons vu plus haut : si la Chine est devenue le leader mondial des énergies renouvelables et a mis en œuvre une stratégie de décarbonation et d’économie verte pour 2060, ce n’est pas sous pression des organisations internationales, dont elle bafoue le plus souvent ou détourne les dispositions et règles, mais par intérêt national afin d’atteindre l’autosuffisance énergétique, de ne pas succomber à la pollution de masse et de dominer l’économie mondiale de demain dont la décarbonation sera une source de croissance et d’innovations nouvelles majeures. Les dirigeants des États occidentaux n’ont pas su s’adapter à la nouvelle réalité du monde polycentrique. Ils n’ont pas anticipé la crise sanitaire alors que des rapports des services secrets français, de la CIA ou des fondations comme celle de Bill Gates avaient tiré la sonnette d’alarme depuis le milieu des années 2000. Et concernant l’islamisme radical, qui gangrène les sociétés occidentales ouvertes à tous les vents, ou l’immigration de masse hors contrôle, avec ses conséquences en termes de chocs culturels, de sécurité et de difficulté d’intégration, ces dirigeants prisonniers de leur utopie multiculturaliste et de leur court-termisme politique n’ont rien su ou voulu prévoir non plus, faute d’éthique de responsabilité et de dévotion au bien commun national. Sur le plan géopolitique mondial 1 , le même esprit de non-responsabilité et de court-termisme a contribué au désordre mondial actuel qui participe de plus en plus d’une anarchie internationale : les zones de conflit ne cessent de s’élargir, avec des arcs de crises de milliers de kilomètres, de l’Afghanistan à l’Éthiopie, du Mali à la Libye, de la Syrie à l’Ukraine, peut-être bientôt à l’Estonie (tensions accrues entre l’Otan et la Russie, voir chapitre III), de la Corée du Nord aux îles Senkaku-Diaoyu et Paracels (Chine-Japon-États-Unis et pays d’Asie du Sud-Est alliés, voir chapitres II et XI), de la République centre africaine à la Turquie, sans oublier, bien sûr, l’hyperterrorisme, fruit d’un islamisme radical longtemps encouragé par les pays occidentaux pour lutter contre l’URSS sous la guerre froide et ensuite pour endiguer la Russie et ses alliés dans les Balkans et dans le monde arabe. Les Occidentaux demeurent d’ailleurs plus que jamais les obligés des mêmes puissances islamistes économiquement alliées (Turquie, pays du Golfe, Pakistan, etc.) mais civilisationnellement ennemies... La crainte d’une escalade conduisant à un conflit généralisé est de ce fait désormais plausible. Heureusement, « le pire n’est jamais certain », et des contre-feux existent, mais l’homme et les nations agissent-ils toujours de façon rationnelle ? En dépit des indispensables précautions que tout géopolitologue doit prendre pour tenter de se projeter dans l’avenir, trois constats nous semblent donc peu discutables : le monde occidental lato sensu et l’Europe en particulier nous semblent promis, à court et moyen terme, à un indéniable déclin ; du fait de la gigantesque course technologique qui constitue un élément incontournable de la toile de fond du nouveau désordre international, les fondements séculaires de la géopolitique, de la géoéconomie et de la géostratégie mondiales sont aujourd’hui profondément perturbés ; mais le dieu Janus, en revanche, face aux grands défis décrits dans cet ouvrage et auxquels est confronté le monde contemporain, est plus que jamais présent. En d’autres termes, l’avenir à moyen terme de la planète semble s’orienter, pour de nombreux exégètes, soit vers une exacerbation des tensions qui pourrait aboutir à un troisième conflit mondial, soit, hypothèse certes plus séduisante évoquée par les disciples d’Emmanuel Kant, emprunter, sous l’égide des organisations internationales, les voies de la paix universelle. La première option, inhérente à la spécificité de l’arme nucléaire et au processus de prolifération, ne pourrait aboutir qu’à l’Apocalypse. L’autre, eu égard aux piètres résultats obtenus par les organisations internationales en général et l’ONU en particulier, nous paraît baigner au cœur de l’utopie. Alors, une troisième voie ? On peut aussi parier en changeant d’échelle, sur la réapparition au premier rang des relations internationales, des États-nations qui jouent simultanément les cartes de la Realpolitik et du soft power. Ou voir se concrétiser la prophétie (naguère vivement critiquée par maints de ses contemporains) d’un André Malraux qui déclarait que « le XXI e siècle sera spirituel ou ne sera pas ». À ce propos, le désenchantement du monde opéré en Europe depuis deux siècles et mué depuis des décennies en une déspiritualisation généralisée qui a conduit, parallèlement à l’action nihiliste de McWorld, à une anomie et donc à un vide de sens et d’identité risque de laisser la place à l’islamisme conquérant. Cette situation ne peut à son tour que favoriser l’ascension de forces radicales nationalistes identitaires qui le combattent. Ce vide moral ou cette anomie de l’Occident libéral-libertaire est probablement le pire des défis pour les sociétés européennes, dont les terres et populations, assignées à la désidentarisation et moralement affaiblies par McWorld, sont plus que jamais convoitées par les Empires turco-islamistes, chinois et américains. En fin de compte, le plus dangereux ennemi de l’Europe ne sont pas les prédateurs extérieurs chinois ou islamistes, les narcopuissances, ou l’Empire étatsunien, mais sa « volonté d’impuissance ». L’Europe, « homme malade du monde », civilisation fatiguée, lasse, complexée et désabusée, préfère-t-elle risquer de disparaître de l’Histoire plutôt que de continuer à se battre pour survivre ? Le Vieux Continent sortira-t-il de sa léthargie et conjurera-t-il le déclin prophétisé par Spengler ? Tout dépendra de la décision ou du refus des dirigeants européens de renouer avec une politique de civilisation et de souveraineté. McWorld versus Europa. 1. Aldo Giannuli, « Elogio del disordine mondiale », Limes, n o 2, 2017. Cartes géopolitiques 1/ Le « Heartland » de Halford Mackinder et le « Rimland » de Nicholas Spykman Source : Hérodote, n o 146. 2/ Les grands blocs géoéconomiques du XXI e siècle et sous-ensembles du « Bloc euro-occidental » Source : Alexandre Del Valle, Guerres contre l’Europe, Paris, Les Syrtes, 2000. 3/ Les grands blocs géopolitiques, et organisations stratégiques/géocivilisationnelles 4/ Les grandes organisations d’intégration régionale et alliances régionales 5/ Les civilisations selon Samuel Huntington Source : Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997. 6/ Tensions entre Pékin et ses voisins autour de la mer de Chine et de ses ressources 7/ Tensions géoénergétiques entre la Turquie et ses voisins en Méditerranée orientale 8/ Le projet califal de Daech (État islamique) 9/ Sultanat et califat turco-Ottomans Source : Alexandre Del Valle, La Turquie dans l’Europe. Un cheval de Troie islamiste ?, Paris, Les Syrtes, 2003. 10/ Accords du 10 novembre 2020 relatifs au conflit du Haut- Karabagh 11/ Nations turcophones d’Asie centrale et du Caucase après la disparition de l’ex-URSS 12/ Statut du nord de l’île de Chypre : territoire de l’UE et de la république de Chypre occupé par la Turquie Source : Alexandre Del Valle, Le Dilemme turc, op. cit., carte conçue par Viatcheslav Avioutskii. 13/ Rivalités géopolitiques autour des gazoducs européens et méditerranéens 14/ L’Ukraine déchirée et la place stratégique de la mer Noire et de la Crimée 15/ Pays les plus touchés par le virus de la COVID 19 Bibliographie des ouvrages cités Agnew, John, Geopolitics. Re-Visioning World Politics, Londres/New York, Routledge, 2003. Allison, Graham, Vers la guerre. L’Amérique et la Chine dans le piège de Thucydide ?, Paris, Odile Jacob, 2020. Baker, Peter, Days of Fire. Bush and Cheney in the White House, Washington, Anchor, 2013. Barber, Benjamin R., Djihad versus McWorld, Paris, Desclée de Brouwer, 1996. Bazin, Xavier, Big Pharma démasqué, de la chloroquine aux vaccins, la crise du coronavirus révèle la face noire de notre système de santé, Paris, Trédaniel, 2021. Bello, Walden, Deglobalization. Ideas for a New World Economy, New York, Zed Books, 2002. Bouthoul, Gaston et Carrère, René, Le Défi de la guerre. 1740-1974 : deux siècles de guerre et de révolution, Paris, PUF, 1976. Bouthoul, Gaston, Traité de polémologie. Sociologie des guerres, Paris, Payot, 1970. Braillard, Philippe, Théories des relations internationales, Paris, PUF, 1977. Brzezinski, Zbigniew, Le Grand Échiquier. L’Amérique et le reste du monde, Paris, Bayard, 1997. Buckley, Peter J., Enderwick, Peter et Cross, Adam R., International Business, Oxford University Press, 2018. Caillet, Romain et Puchot, Pierre, Le combat vous a été prescrit, Paris, Stock, 2017. Chevalier, Jean-Marie Geoffron, Patrice, Les Nouveaux Défis de l’énergie, Paris, Economica, 2011. Del Valle, Alexandre, Le Totalitarisme islamiste, Paris, Les Syrtes, 2002. Del Valle, Alexandre, La Turquie dans l’Europe. Un cheval de Troie islamiste ?, Paris, Les Syrtes, 2003. Del Valle, Alexandre, Le Complexe occidental. Petit traité de déculpabilisation, Paris, Toucan, 2014. Del Valle, Alexandre, Les Vrais Ennemis de l’Occident. Du rejet de la Russie à l’islamisation des sociétés ouvertes, Paris, L’Artilleur, 2016. Del Valle, Alexandre, La Stratégie de l’intimidation. Du terrorisme jihadiste à l’islamiquement correct, Paris, L’Artilleur, 2018. Del Valle, Alexandre et Razavi, Emmanuel, Le Projet. Stratégie de conquête et d’infiltration des Frères musulmans en France et dans le monde, Paris, L’Artilleur, 2019. Diaz, Xavier, « Le tsunami de la dette atteint un nouveau record mondial », L’Agefi, 18 novembre 2011. Djalili, Mohammad-Reza, Diplomatie islamique, Paris, PUF, 1989. Éthier, Diane, Introduction aux relations internationales, Montréal, Presses de l’université de Montréal, 2010. Étienne, Bruno, L’Islamisme radical, Paris, Hachette, 1987. Fukuyama, Francis, La Fin de l’histoire et le dernier homme, Paris, Flammarion, 2009. Gallois, Pierre Marie, Stratégie de l’âge nucléaire, Paris, Calmann-Lévy, 1960. Gallois, Pierre Marie, Géopolitique. Les voies de la puissance, Paris, Plon, 1990. Gallois, Pierre Marie, Le soleil d’Allah aveugle l’Occident, Lausanne, L’Âge d’Homme, 1995. Gallois, Pierre Marie, Géopolitique. Les voies de la puissance, Lausanne, L’Âge d’Homme, 1998. Gallois, Pierre Marie, La France sort-elle de l’histoire ?, Paris, L’Âge d’Homme, 1999. Gallois, Pierre Marie, Le Sang du pétrole. Les guerres d’Irak, 1990-2003, Lausanne, L’Âge d’Homme, 2002. Gallois, Pierre Marie, L’Heure fatale de l’Occident, Lausanne/Paris, L’Âge d’Homme, 2004. Geoffroy, Michel, La Nouvelle Guerre des mondes, Paris, Via Romana, 2020. Giannuli, Aldo, « Elogio del disordine mondiale », Limes, n o 2, 2017. Giblin, Béatrice (avec entre autres Avioutskii, Viatcheslav), Les Conflits dans le monde, Paris, Armand Colin, 2016. Hagège, Claude, Contre la pensée unique, Paris, Odile Jacob, 2012. Harbulot, Christian et Pichot-Duclos, Jean, La France doit dire non, Paris, Plon, 1999. Hughes, Barry B., Continuity and Change in World Politics. Competing Perspectives, 3 e éd., Upper Saddle River, NJ, Prentice Hall, 1997. Huntington, Samuel, Le Choc des civilisations, Paris, Odile Jacob, 1997. Kaplan, Robert D., La Revanche de la géographie. Ce que les cartes nous disent des conflits à venir, Paris, Toucan, 2014. Karmon, Ely et Barak, Michael, « Erdogan’s Turkey and the Palestinian Issue », Perspectives on Terrorism, vol. 12, n o 2, avril 2018. Kassis, Randa et Del Valle, Alexandre, Comprendre le chaos syrien, Paris, L’Artilleur, 2016. Kateb, Alexandre, Les Nouvelles Puissances mondiales. Pourquoi les BRIC changent le monde, Paris, Ellipses, 2011. Kepel, Gilles, Le Prophète et Pharaon. Aux sources des mouvements islamistes, Paris, Gallimard, coll. « Folio histoire », 2012. König, Claire, « L’eau, futur or bleu ? La mer d’Aral et son évolution en Asie centrale », Futura-Sciences, 3 juin 2016. Kraemer, Johann-Ewald, L’Euro. Dans les coulisses de la monnaie unique, Paris, Les Syrtes, 2001. Kupchan, Charles, The End of the American Era. US Foreign Policy and the Geopolitics of the Twenty-First Century, New York, Knopf, 2002. Lacoste, Yves, Dictionnaire de géopolitique, Paris, Flammarion, 2002. Lacoste, Yves, Géopolitique. La longue histoire d’aujourd’hui, Paris, Larousse, 2006. Lenglet, François, La Fin de la mondialisation, Paris, Fayard, 2013. Mackinder, Halford John, « Le pivot géographique de l’Histoire », The Geographical Journal, vol. 23, n o 4, avril 1904, p. 421-437. McLuhan, Marshall, The Gutenberg Galaxy. The Making of Typographic Man, Toronto, Canada, University of Toronto Press, 1962. Merry, Robert W., Sands of Empire. Missionary Zeal, American Foreign Policy, and the Hazards of Global Ambition, New York, Simon & Schuster, 2005. Milanovic, Branko, Inégalités mondiales. Le destin des classes moyennes, les ultra-riches et l’égalité des chances, Paris, La Découverte, 2019. Minc, Alain, La Mondialisation heureuse, Paris, Pocket, 1999. Montebourg, Arnaud, Votez pour la démondialisation, Paris, Flammarion, 2011. Nikonov, Viatcheslav, Comprendre la Russie, Paris, Apopsix, 2018. Pitron, Guillaume, La Guerre des métaux rares. La face cachée de la transition énergétique et numérique, Paris, Les Liens qui libèrent, 2018. Pourtier, Roland, Afriques noires, Paris, Hachette, 2001. Quatrepoint, Jean-Michel, Le Choc des empires. États-Unis, Chine, Allemagne : qui dominera l’économie-monde ?, Paris, Gallimard, 2014. Ross, Michael L., The Oil Curse. How Petroleum Wealth Shapes the Development of Nations, New York, Paperback, 2012. Sapir, Jacques, La Démondialisation, Paris, Seuil, 2012. Schooyans, Michel, Le Crash démographique, Paris, Le Sarment-Fayard, 1999. Soppelsa, Jacques, Des tensions et des armes, Paris, PUF, 1984. Soppelsa, Jacques, Lexique de géopolitique (en coll.), Paris, Dalloz, 1997. Soppelsa, Jacques, Les Dates-clefs du dialogue régional en Amérique latine, Paris, Ellipses, 2002. Soppelsa, Jacques, Les États-Unis. Une histoire revisitée, Paris, La Martinière-Seuil, 2004, 413 p. Soppelsa, Jacques, Géopolitique du monde contemporain, Paris, Nathan, 2008. Soppelsa, Jacques, Les Sept Défis capitaux du nouvel ordre mondial, Paris, A2C Médias, 2009. Thual, François, La Crise du Haut-Karabakh. Une citadelle assiégée ?, Paris, PUF, 2002. Touati, Marc, Un monde de bulles, Paris, Bookelis, 2018. Vernier, Éric, Technique de blanchiment et moyens de lutte, Paris, Dunod, 2017. Wallerstein, Immanuel, « Globalization or the Age of Transition? A Long-Term View of the Trajectory of the World System », International Sociology, vol. 15, n o 2, 2000, p. 251-267. Yégavian, Tigrane, Les Diasporas turque et azerbaïdjanaise de France : instruments au service du panturquisme, rapport n o 27 du CF2R. Zeller, Louis-Marie et Alidra, Wassim, « Terres rares : des enjeux de la transition énergétique aux enjeux géopolitiques ? », Les Jeunes IHEDN, octobre 2019. Ziegler, Jean, La Haine de l’Occident, Paris, Albin Michel, 2008. Index des noms propres Abdallah al-ash-Sheikh, Suleiman (ibn) 162 ‘Abd al-Wahhāb, Muhammad (ibn) 162, 201 Aboud Rogo, Mohammed 201 Ahmadinejad, Mahmoud 213 al-Adnani, Abou Mohammed 173 al-Assad, Bachar 70, 83, 96, 109, 171-172, 197 al-Baghdadi, Abou Bakr (calife) 174 al-Banna, Hassan 158-159, 408 Allison, Graham 42, 46, 48-49, 55, 114, 497 al-Maqdissi, Abou Muhammed 192, 201 al-Masri, Abou Mohammed 177 al-Qardaoui, Youssef 196, 408 al-Qarni, Ayid 407 al-Salbi al-Mawla, Amir Mohammed Saïd 174 al-Shugairi, Ahmad 408 al-Souri, Abou Moussab 167, 191 al-Turkmani, Abou Omar 174-175 al-Zawahiri, Ayman 177 Atran, Scott 173, 201 Avioutskii, Viatcheslav 78, 493, 498 Ban Ki-Moon 198 Barber, Benjamin 18, 27, 42, 52-55, 155, 388, 497 Barnier, Michel 474 Bello, Walden 456, 497 Ben Laden, Hamza 175-176 Ben Laden, Oussama 176, 178, 188 Benyettou, Farid 162, 201 Bertrand, Badie 20, 375 Biden, Joe 53, 77-78, 80-81, 97, 215-216, 229, 243, 294-296, 300, 308, 316, 337, 389, 417-418, 421, 435-436, 438, 455-456, 464, 470 Bourguiba, Habib 146 Bouteflika, Abdelaziz 194 Bouthoul, Gaston 61, 73, 94, 341, 360-361, 364, 374, 497 Branko, Milanovic 499 Brzezinski, Zbigniew 21, 30-31, 37, 42, 46-48, 55, 81, 110-111, 117, 497 Burkhard, Thierry 1, 56, 481 Bush, George H. 41-42, 228 Bush, George W. 42, 45, 90, 102-104, 228, 235, 289 Cabirol, Michel 235 Carrère, René 61, 94, 497 Carter, Ashton 108 Carter, Jimmy 35, 227 Castro, Fidel 191 Charlie, McCreevy 474 Chávez, Hugo 406 Chevalier, Jean-Marie 497 Churchill, Winston 35, 41 Clinton, Bill 35, 42, 44 Cody, Wilson 279 de Gaulle, Charles 35, 309, 373 Del Valle, Alexandre 37, 55, 94, 112, 138, 201, 285, 337, 488, 492-493, 497-498 de Maillard, Jean 237, 285 Denécé, Éric 57, 94, 281, 285 Dicko, Mahmoud 185 Disraeli, Benjamin 56 Dunford, Joseph 107 Duroselle, Jean-Baptiste 42, 114 El Chapo (Joaquim Guzmán) 252, 254, 285 El Karoui Hakim 168 El Mencho (Nemesio Oseguera Cervantes) 255 Eltsine, Boris 67, 95, 101, 125, 228, 256 Erdoğan, Recep Tayyip 15, 24, 57, 59, 63, 70, 73, 78, 94, 158-159, 175, 197, 199-201, 269, 272, 285, 327, 332-333, 402, 404-405, 498 Étienne, Bruno 159, 498 Freeman, Morgan 337 Frezat, César 235 Friedman, Thomas 19, 26, 112, 155 Fukuyama, Francis 19, 37, 41, 43-44, 46, 48, 55, 125, 469, 498 Galacteros, Caroline 113, 126, 138 Gallois, Pierre Marie 24, 32, 36-37, 61, 91, 122, 130, 138, 202, 206-207, 226, 235, 498 Gates, Bill 423-424, 428, 452, 483 Gazzane, Hayat 285 Gengis, Khan 479 Georgieva, Kristalina 412, 419 Gomart, Thomas 420 Gorbatchev, Mikhaïl 220, 228 Grézaud, Pierre-Xavier 285 Haftar, Khalifa 83, 175 Hagège, Claude 139, 151, 498 Harpon, Mickaël 167 Haski, Pierre 285 Hassan II 373-374 Hitler, Adolf 168 Hughes, Barry 156, 161, 200-201, 498 Huntington, Samuel 21, 28, 42, 48-52, 55, 74, 87, 94, 114, 125, 356, 462, 489, 498 Hussein, Saddam 91, 201 Ibrahim Boubacar Keïta (IBK) 85, 185 James, Deborah 108 Jong-un, Kim 89, 91, 205 Kadhafi, Mu’ammar 83, 91, 182 Kaplan, Robert D. 21, 37, 498 Kassis, Randa 498 Kennan, George 48, 111-112 Kennedy, Paul 41-42, 55, 114 Kerchove, Gilles (de) 163, 403 Khamenei, Ali (guide) 406 Khomeiny, Rouhollah (ayatollah) 194 Kissinger, Henry 129, 222, 375, 419 Koufa, Hamadoun 187 Kozyrev, Andrei 101 Kupchan, Charles 116, 138, 499 Lacoste, Yves 32, 37, 499 Lagarde, Christine 285 Laqueur, Walter 189-190, 201 Live Matters Blacks 115 Luttwak, Edward 116 Macron, Emmanuel 78, 97, 161, 197, 199, 405-406 Maduro, Nicolás 395-396, 406 Mahathir, bin Mohamad 402, 405 Ma, Jack 54-55, 416 Malraux, André 51, 146, 485 Mao, Zedong 191, 204 Mawdoudi, Abou Ala (al) 158-159 McFaul, Michael 103 Meng, Wanzhou 413 Merkel, Angela 197, 272, 308, 442 Merry, Robert W. 125, 138, 499 Michari, Rachid al-Alafassi 408 Monnet, Bertrand 285 Montaigne, Institut 168, 374, 407, 419 Naji, Abou Bakr 167, 170, 184, 201 Nataf, David 394 Nogueroles, Jean-Michel 360, 374 Nye, Joseph 41 Obama, Barak 42, 44-45, 53, 78, 99-100, 214, 228, 294-295, 305, 458, 474, 479 Paty, Samuel 193, 200, 405-406 Pécresse, Valérie 372 Pérez, Juan Martín 266 Pitron, Guillaume 337, 499 Pons, Noël 236 Poutine, Vladimir 16, 48, 69, 72-73, 76, 78-79, 81, 95, 97, 100-105, 107, 109, 112, 121, 228, 234, 348, 431 Qutb, Sayyid 158-159, 201 Ramadan, Hani 408 Ramadan, Tariq 408 Reagan, Ronald 55, 220 Reza Djalili, Mohammad 156-157, 201, 498 Rhoda, Weeks-Brown 239, 285 Rice, Condoleezza 105, 112, 137 Ross, Michael 93-94, 499 Salih al-‘Uthaymin, Muhammad (ibn) 162 Sanders, Bernie 453 Santo, Vincenzo 272-273 Sauvy, Alfred 341, 372 Schooyans, Michel 346, 374, 499 Sékou, Amadou Barryi 201 Senghor, Léopold Sédar 146 Sihanouk, Norodom 146 Smith, Adam 453 Soppelsa, Jacques 37, 55, 94, 235, 374, 499 Stefanini, Patrick 368, 374 Stoian, Karadeli Andreea 430 Tamim, Al Thani 406 Tedros, Adhanom Ghebreyesus 427 Touati, Marc 440, 442-443, 452, 500 Tribalat, Michèle 364, 366-367, 374 Trump, Donald 37, 42, 53, 89, 91, 97, 100, 114-115, 135, 214-216, 232, 243, 293-297, 306, 308, 316, 402, 404-405, 407, 411-413, 417-418, 426, 436, 453, 456-457, 464, 470 Vernier, Éric 236-237, 253, 264-266, 281-283, 285, 500 Wallerstein, Immanuel 500 Warren, Christopher 44 Waszczykowski, Witold 108 Weber, Max 482 Work, Robert 109 Xi Jinping 16, 48, 80, 124, 137, 297-299, 316, 425-427 Zarqaoui, Abou Moussa al- 174, 192, 201 Zelensky, Volodymyr 78, 97-98 Zhihao Zhang 452 Ziegler, Jean 130-131, 138, 500 Remerciements Nous tenons à remercier tous ceux qui ont contribué, directement ou indirectement, à la réalisation de cet ouvrage : l’entrepreneur M. Y. Maestroni ; Patricia Mamet, membre honoraire du CESE ; les professeurs Viatcheslav Avioutskii – géopolitologue disciple d’Yves Lacoste, spécialiste de l’espace ex-soviétique –, Éric Vernier – directeur de l’école de commerce Iscid-Co, spécialiste des questions de blanchiment –, Drissa Kananbayé – chercheur à l’ULB, expert du Sahel et du djihadisme –, Turab Gurbanov ; Simon Petermann ; puis Éric Dénecé, président du Centre français de recherche sur le renseignement (CF2R) ; Jean-Ewald Kramer, haut fonctionnaire international ancien de la BCE ; Vincent Sinacola, ingénieur-chercheur ; Tigrane Yégavian, géopolitologue du Caucase et contributeur de la revue Conflits ; Edoardo Secchi, économiste et président d’Italy-France Group ; et Guglielmo Janello. Leurs conseils, apports, aides à la relecture et suggestions ont été précieux.
Dans Science et Hypothèse, j’ai déjà montré combien leur valeur est relative ; ce n’est pas la nature qui nous les impose, c’est nous qui les imposons à la nature parce que nous les trouvons commodes, mais je n’ai guère parlé que de l’espace, et surtout de l’espace quantitatif, pour ainsi dire, c’est-à-dire des relations mathématiques dont l’ensemble constitue la géométrie. Mais si l’on avait pris soin de traduire le raisonnement dans le langage de la Géométrie, intermédiaire entre celui de l’Analyse et celui de la Physique, ces défiances ne se seraient sans doute pas produites, et peut-être pourrait-on ainsi, même aujourd’hui, tromper encore bien des lecteurs non prévenus. Nous avons donc plusieurs sortes d’intuitions ; d’abord, l’appel aux sens et à l’imagination ; ensuite, la généralisation par induction, calquée, pour ainsi dire, sur les procédés des sciences expérimentales ; nous avons enfin l’intuition du nombre pur, celle d’où est sorti le second des axiomes que j’énonçais tout à l’heure et qui peut engendrer le véritable raisonnement mathématique. La façon dont ces cellules sont agencées et d’où résulte l’unité de l’individu, n’est-elle pas aussi une réalité, beaucoup plus intéressante que celle des éléments isolés, et un naturaliste, qui n’aurait jamais étudié l’éléphant qu’au microscope, croirait- il connaître suffisamment cet animal ? M. Hermite, par exemple, que je citais tout à l’heure, ne peut être classé parmi les géomètres qui font usage de l’intuition sensible ; mais il n’est pas non plus un logicien proprement dit. Cette hypothèse est bien grossière et incomplète ; car cette intelligence suprême ne serait qu’un demi-dieu ; infinie en un sens, elle serait limitée en un autre, puisqu’elle n’aurait du passé qu’un souvenir imparfait ; et elle n’en pourrait avoir d’autre, puisque sans cela tous les souvenirs lui seraient également présents et qu’il n’y aurait pas de temps pour elle. Pour ne pas nous perdre dans cette infinie complexité, faisons une hypothèse plus simple ; considérons trois astres, par exemple, le Soleil, Jupiter et Saturne ; mais, pour plus de simplicité, regardons-les comme réduits à des points matériels et isolés du reste du monde. Mais, pour être rigoureux, il faudrait faire encore une petite correction par un calcul compliqué ; on ne la fait pas dans la pratique, parce qu’elle serait beaucoup plus faible que les erreurs d’observation ; sa nécessité théorique n’en subsiste pas moins à notre point de vue, qui est celui d’une définition rigoureuse. Dans cette science, on fait abstraction de toute idée quantitative et par exemple, si on constate que sur une ligne le point B est entre les points A et C, on se contentera de cette constatation et on ne s’inquiétera pas de savoir si la ligne ABC est droite ou courbe, ni si la longueur AB est égale à la longueur BC, ou si elle est deux fois plus grande. Nous avons vu ce qui caractérise le continu physique, chacun des éléments de ce continu consiste en un ensemble d’impressions ; et il peut arriver ou bien qu’un élément ne peut pas être discerné d’un autre élément du même continu, si ce nouvel élément correspond à un ensemble d’impressions trop peu différentes, ou bien au contraire que la distinction est possible ; enfin il peut se faire que deux éléments, indiscernables d’un même troisième, peuvent néanmoins être discernés l’un de l’autre. On voit, d’ailleurs, que cette définition ne s’applique pas seulement à l’espace, que dans tout ce qui tombe sous nos sens, nous retrouvons les caractères du continu physique, ce qui permettrait la même classification ; il serait aisé d’y trouver des exemples de continus de quatre, de cinq dimensions, au sens de la définition précédente ; ces exemples se présentent d’eux-mêmes à l’esprit. Pour un être complètement immobile, il n’y aurait ni espace, ni géométrie ; c’est en vain qu’autour de lui les objets extérieurs se déplaceraient, les variations que ces déplacements feraient subir à ses impressions ne seraient pas attribuées par cet être à des changements de position, mais à de simples changements d’état, cet être n’aurait aucun moyen de distinguer ces deux sortes de changements, et cette distinction, capitale pour nous, n’aurait aucun sens pour lui. Nous observons ensuite que parmi les changements externes, il y en a qui peuvent être corrigés grâce à un changement interne qui ramène tout à l’état primitif ; d’autres ne peuvent pas être corrigés de la sorte (c’est ainsi que quand un objet extérieur s’est déplacé, nous pouvons en nous déplaçant nous-mêmes nous replacer par rapport à cet objet dans la même situation relative de façon à rétablir l’ensemble des impressions primitives ; si cet objet ne s’est pas déplacé, mais a changé d’état, cela est impossible). 1° Je puis supposer que mon corps se soit transporté d’un point à un autre, mais en conservant la même attitude ; toutes les parties de ce corps ont donc conservé ou repris la même situation relative, bien que leur situation absolue dans l’espace ait varié ; je puis supposer également que non seulement la position de mon corps a changé, mais que son attitude n’est plus la même, que par exemple mes bras qui tout à l’heure étaient repliés soient maintenant allongés. — L’ESPACE VISUEL Bien que les impressions motrices aient, comme je viens de l’expliquer, eu une influence tout à fait prépondérante dans la genèse de la notion d’espace qui n’aurait jamais pris naissance sans elles, il ne sera pas sans intérêt d’examiner aussi le rôle des impressions visuelles et de rechercher combien « l’espace visuel » a de dimensions, et d’appliquer pour cela à ces impressions la définition du § 3. Si alors nous formons une nouvelle coupure C′′ avec toutes celles des sensations de la coupure C′ qui sont accompagnées d’une certaine sensation de convergence, d’après la loi précédente, elles seront toutes indiscernables et pourront être regardées comme identiques ; donc C′′ ne sera pas un continu et aura 0 dimension ; et comme C′′ divise C′ il en résultera que C′ en a une, C deux et que l’espace visuel total en a trois. Mais alors une question se pose ; comment, avant de savoir la géométrie, avons-nous été amenés à distinguer des autres ces séries σ où le doigt ne bouge pas ; ce n’est en effet qu’après avoir fait cette distinction que nous pourrons être conduits à regarder Σ et Σ + σ comme identiques, et c’est à cette condition seulement, comme nous venons de le voir, que nous pouvons arriver à l’espace à trois dimensions. Mais ces lois ne sont-elles pas locales, variables d’un point à l’autre, comme celles que font les hommes ; ce qui est la vérité dans un coin de l’univers, sur notre globe, par exemple, ou dans notre petit système solaire, ne va-t-il pas devenir l’erreur un peu plus loin ? En m’entendant parler ainsi, vous pensez sans doute au radium, ce grand révolutionnaire des temps présents, et en effet je vais y revenir tout à l’heure ; mais il y a autre chose ; ce n’est pas seulement la conservation de l’énergie qui est en cause ; tous les autres principes sont également en danger, comme nous allons le voir en les passant successivement en revue. On verrait alors que l’amplitude de l’oscillation dépend non seulement de la variation du mouvement, variation qui est bien connue, puisque c’est le mouvement de notre globe sur son orbite elliptique, mais de la valeur moyenne de ce mouvement de sorte que la constante de l’aberration ne serait pas tout à fait la même pour toutes les Étoiles, et que les différences nous feraient connaître le mouvement absolu de la Terre dans l’espace. Et alors qu’on ne vienne pas dire : mais c’est la preuve que la géométrie est une science expérimentale ; en séparant ses principes de lois d’où on les a extraits, vous la séparez artificiellement elle-même des sciences qui lui ont donné naissance.
La Valeur de la Science     par   Henri Poincaré   Membre de l’Institut         Paris — 1908   Table des matières   INTRODUCTION PREMIÈRE PARTIE LES SCIENCES MATHÉMATIQUES CHAPITRE PREMIER L’intuition et la Logique en Mathématiques CHAPITRE II La mesure du Temps CHAPITRE III La Notion d’Espace CHAPITRE IV L’Espace et ses Trois Dimensions DEUXIÈME PARTIE LES SCIENCES PHYSIQUES CHAPITRE V L’Analyse et la Physique. CHAPITRE VI L’Astronomie CHAPITRE VII L’Histoire de la Physique mathématique. CHAPITRE VIII La Crise actuelle de la Physique mathématique. CHAPITRE IX L’Avenir de la Physique mathématique TROISIÈME PARTIE LA VALEUR OBJECTIVE DE LA SCIENCE CHAPITRE X La Science est-elle artificielle ? CHAPITRE XI La Science et la Réalité INTRODUCTION La recherche de la vérité doit être le but de notre activité ; c’est la seule fin qui soit digne d’elle. Sans doute nous devons d’abord nous efforcer de soulager les souffrances humaines, mais pourquoi ? Ne pas souffrir, c’est un idéal négatif et qui serait plus sûrement atteint par l’anéantissement du monde. Si nous voulons de plus en plus affranchir l’homme des soucis matériels, c’est pour qu’il puisse employer sa liberté reconquise à l’étude et à la contemplation de la vérité. Cependant quelquefois la vérité nous effraye. Et en effet, nous savons qu’elle est quelquefois décevante, que c’est un fantôme qui ne se montre à nous un instant que pour fuir sans cesse, qu’il faut la poursuivre plus loin et toujours plus loin, sans jamais pouvoir l’atteindre. Et cependant pour agir il faut s’arrêter, αναγκη στηναι, comme a dit je ne sais plus quel grec, Aristote ou un autre. Nous savons aussi combien elle est souvent cruelle et nous nous demandons si l’illusion n’est pas non seulement plus consolante, mais plus fortifiante aussi ; car c’est elle qui nous donne la confiance. Quand elle aura disparu, l’espérance nous restera-t-elle et aurons-nous le courage d’agir ? C’est ainsi que le cheval attelé à un manège refuserait certainement d’avancer si on ne prenait la précaution de lui bander les yeux. Et puis, pour chercher la vérité, il faut être indépendant, tout à fait indépendant. Si nous voulons agir, au contraire, si nous voulons être forts, il faut que nous soyons unis. Voilà pourquoi plusieurs d’entre nous s’effraient de la vérité ; ils la considèrent comme une cause de faiblesse. Et pourtant il ne faut pas avoir peur de la vérité parce qu’elle seule est belle. Quand je parle ici de la vérité, sans doute je veux parler d’abord de la vérité scientifique ; mais je veux parler aussi de la vérité morale, dont ce qu’on appelle la justice n’est qu’un des aspects. Il semble que j’abuse des mots, que je réunis ainsi sous un même nom deux objets qui n’ont rien de commun ; que la vérité scientifique qui se démontre ne peut, à aucun titre, se rapprocher de la vérité morale qui se sent. Et pourtant je ne peux les séparer, et ceux qui aiment l’une ne peuvent pas ne pas aimer l’autre. Pour trouver l’une, comme pour trouver l’autre, il faut s’efforcer d’affranchir complètement son âme du préjugé et de la passion, il faut atteindre à l’absolue sincérité. Ces deux sortes de vérités, une fois découvertes, nous procurent la même joie ; l’une et l’autre, dès qu’on l’a aperçue, brille du même éclat, de sorte qu’il faut la voir ou fermer les yeux. Toutes deux enfin nous attirent et nous fuient ; elles ne sont jamais fixées : quand on croit les avoir atteintes, on voit qu’il faut marcher encore, et celui qui les poursuit est condamné à ne jamais connaître le repos. Il faut ajouter que ceux qui ont peur de l’une, auront peur aussi de l’autre ; car ce sont ceux qui, en toutes choses, se préoccupent avant tout des conséquences. En un mot, je rapproche les deux vérités, parce que ce sont les mêmes raisons qui nous les font aimer et parce que ce sont les mêmes raisons qui nous les font redouter. Si nous ne devons pas avoir peur de la vérité morale, à plus forte raison il ne faut pas redouter la vérité scientifique. Et d’abord elle ne peut être en conflit avec la morale. La morale et la science ont leurs domaines propres qui se touchent mais ne se pénètrent pas. L’une nous montre à quel but nous devons viser, l’autre, le but étant donné, nous fait connaître les moyens de l’atteindre. Elles ne peuvent donc jamais se contrarier puisqu’elles ne peuvent se rencontrer. Il ne peut pas y avoir de science immorale, pas plus qu’il ne peut y avoir de morale scientifique. Mais si l’on a peur de la science, c’est surtout parce qu’elle ne peut nous donner le bonheur. Évidemment non, elle ne peut pas nous le donner, et l’on peut se demander si la bête ne souffre pas moins que l’homme. Mais pouvons-nous regretter ce paradis terrestre où l’homme, semblable à la brute, était vraiment immortel puisqu’il ne savait pas qu’on doit mourir ? Quand on a goûté à la pomme, aucune souffrance ne peut en faire oublier la saveur, et on y revient toujours. Pourrait-on faire autrement ? Autant demander si celui qui a vu, peut devenir aveugle et ne pas sentir la nostalgie de la lumière. Aussi l’homme ne peut être heureux par la science, mais aujourd’hui il peut bien moins encore être heureux sans elle. Mais si la vérité est le seul but qui mérite d’être poursuivi, pouvons- nous espérer l’atteindre ? Voilà de quoi il est permis de douter. Les lecteurs de mon petit livre sur la Science et l’Hypothèse savent déjà ce que j’en pense. La vérité qu’il nous est permis d’entrevoir n’est pas tout à fait ce que la plupart des hommes appellent de ce nom. Est-ce à dire que notre aspiration la plus légitime et la plus impérieuse est en même temps la plus vaine ? Ou bien pouvons-nous malgré tout approcher de la vérité par quelque côté, c’est ce qu’il convient d’examiner. Et d’abord, de quel instrument disposons-nous pour cette conquête ? L’intelligence de l’homme, pour nous restreindre, l’intelligence du savant n’est-elle pas susceptible d’une infinie variété ? On pourrait, sans épuiser ce sujet, écrire bien des volumes ; je n’ai fait que l’effleurer en quelques courtes pages. Que l’esprit du mathématicien ressemble peu à celui du physicien ou à celui du naturaliste, tout le monde en conviendra ; mais les mathématiciens eux-mêmes ne se ressemblent pas entre eux ; les uns ne connaissent que l’implacable logique, les autres font appel à l’intuition et voient en elle la source unique de la découverte. Et ce serait là une raison de défiance. À des esprits si dissemblables, les théorèmes mathématiques eux- mêmes pourront-ils apparaître sous le même jour ? La vérité qui n’est pas la même pour tous est-elle la vérité ? Mais en regardant les choses de plus près, nous voyons comment ces ouvriers si différents collaborent à une œuvre commune qui ne pourrait s’achever sans leur concours. Et cela déjà nous rassure. Il faut ensuite examiner les cadres dans lesquels la nature nous paraît enfermée et que nous nommons le temps et l’espace. Dans Science et Hypothèse, j’ai déjà montré combien leur valeur est relative ; ce n’est pas la nature qui nous les impose, c’est nous qui les imposons à la nature parce que nous les trouvons commodes, mais je n’ai guère parlé que de l’espace, et surtout de l’espace quantitatif, pour ainsi dire, c’est-à-dire des relations mathématiques dont l’ensemble constitue la géométrie. Il était nécessaire de montrer qu’il en est du temps comme de l’espace et qu’il en est encore de même de « l’espace qualitatif » ; il fallait en particulier rechercher pourquoi nous attribuons trois dimensions à l’espace. On me pardonnera donc d’être revenu une fois encore sur ces importantes questions. L’analyse mathématique, dont l’étude de ces cadres vides est l’objet principal, n’est-elle donc qu’un vain jeu de l’esprit ? Elle ne peut donner au physicien qu’un langage commode ; n’est-ce pas là un médiocre service, dont on aurait pu se passer à la rigueur ; et même, n’est-il pas à craindre que ce langage artificiel ne soit un voile interposé entre la réalité et l’œil du physicien ? Loin de là, sans ce langage, la plupart des analogies intimes des choses nous seraient demeurées à jamais inconnues ; et nous aurions toujours ignoré l’harmonie interne du monde, qui est, nous le verrons, la seule véritable réalité objective. La meilleure expression de cette harmonie, c’est la Loi ; la Loi est une des conquêtes les plus récentes de l’esprit humain ; il y a encore des peuples qui vivent dans un miracle perpétuel et qui ne s’en étonnent pas. C’est nous au contraire qui devrions nous étonner de la régularité de la nature. Les hommes demandent à leurs dieux de prouver leur existence par des miracles ; mais la merveille éternelle c’est qu’il n’y ait pas sans cesse des miracles. Et c’est pour cela que le monde est divin, puisque c’est pour cela qu’il est harmonieux. S’il était régi par le caprice, qu’est-ce qui nous prouverait qu’il ne l’est pas par le hasard ? Cette conquête de la Loi, c’est à l’Astronomie que nous la devons, et c’est ce qui fait la grandeur de cette Science, plus encore que la grandeur matérielle des objets qu’elle considère. Il était donc tout naturel que la Mécanique Céleste fût le premier modèle de la Physique Mathématique ; mais depuis cette Science, a évolué ; elle évolue encore, elle évolue même rapidement. Et déjà il est nécessaire de modifier sur quelques points le tableau que je traçais en 1900 et dont j’ai tiré deux chapitres de Science et Hypothèse. Dans une conférence faite à l’Exposition de Saint-Louis en 1904, j’ai cherché à mesurer le chemin parcouru ; quel a été le résultat de cette enquête, c’est ce que le lecteur verra plus loin. Les progrès de la Science ont semblé mettre en péril les principes les mieux établis, ceux-là mêmes qui étaient regardés comme fondamentaux. Rien ne prouve cependant qu’on n’arrivera pas à les sauver ; et si on n’y parvient qu’imparfaitement, ils subsisteront encore, tout en se transformant. Il ne faut pas comparer la marche de la Science aux transformations d’une ville, où les édifices vieillis sont impitoyablement jetés à bas pour faire place aux constructions nouvelles, mais à l’évolution continue des types zoologiques qui se développent sans cesse et finissent par devenir méconnaissables aux regards vulgaires, mais où un œil exercé retrouve toujours les traces du travail antérieur des siècles passés. Il ne faut donc pas croire que les théories démodées ont été stériles et vaines. Si nous nous arrêtions là, nous trouverions dans ces pages quelques raisons d’avoir confiance dans la valeur de la Science, mais des raisons beaucoup plus nombreuses de nous en défier ; il nous resterait une impression de doute ; il faut maintenant remettre les choses au point. Quelques personnes ont exagéré le rôle de la convention dans la Science ; elles sont allées jusqu’à dire que la Loi, que le fait scientifique lui- même étaient créés par le savant. C’est là aller beaucoup trop loin dans la voie du nominalisme. Non, les lois scientifiques ne sont pas des créations artificielles ; nous n’avons aucune raison de les regarder comme contingentes, bien qu’il nous soit impossible de démontrer qu’elles ne le sont pas. Cette harmonie que l’intelligence humaine croit découvrir dans la nature, existe-t-elle en dehors de cette intelligence ? Non, sans doute, une réalité complètement indépendante de l’esprit qui la conçoit, la voit ou la sent, c’est une impossibilité. Un monde si extérieur que cela, si même il existait, nous serait à jamais inaccessible. Mais ce que nous appelons la réalité objective, c’est, en dernière analyse, ce qui est commun à plusieurs êtres pensants, et pourrait être commun à tous ; cette partie commune, nous le verrons, ce ne peut être que l’harmonie exprimée par des lois mathématiques. C’est donc cette harmonie qui est la seule réalité objective, la seule vérité que nous puissions atteindre ; et si j’ajoute que l’harmonie universelle du monde est la source de toute beauté, on comprendra quel prix nous devons attacher aux lents et pénibles progrès qui nous la font peu à peu mieux connaître.     PREMIÈRE PARTIE LES SCIENCES MATHÉMATIQUES     CHAPITRE PREMIER L’intuition et la Logique en Mathématiques I Il est impossible d’étudier les Œuvres des grands mathématiciens, et même celles des petits, sans remarquer et sans distinguer deux tendances opposées, ou plutôt deux sortes d’esprits entièrement différents. Les uns sont avant tout préoccupés de la logique ; à lire leurs ouvrages, on est tenté de croire qu’ils n’ont avancé que pas à pas, avec la méthode d’un Vauban qui pousse ses travaux d’approche contre une place forte, sans rien abandonner au hasard. Les autres se laissent guider par l’intuition et font du premier coup des conquêtes rapides, mais quelquefois précaires, ainsi que de hardis cavaliers d’avant-garde. Ce n’est pas la matière qu’ils traitent qui leur impose l’une ou l’autre méthode. Si l’on dit souvent des premiers qu’ils sont des analystes et si l’on appelle les autres géomètres, cela n’empêche pas que les uns restent analystes, même quand ils font de la Géométrie, tandis que les autres sont encore des géomètres, même s’ils s’occupent d’Analyse pure. C’est la nature même de leur esprit qui les fait logiciens ou intuitifs, et ils ne peuvent la dépouiller quand ils abordent un sujet nouveau. Ce n’est pas non plus l’éducation qui a développé en eux l’une des deux tendances et qui a étouffé l’autre. On naît mathématicien, on ne le devient pas, et il semble aussi qu’on naît géomètre, ou qu’on naît analyste. Je voudrais citer des exemples et certes ils ne manquent pas ; mais pour accentuer le contraste, je voudrais commencer par un exemple extrême ; pardon, si je suis obligé de le chercher auprès de deux mathématiciens vivants. M. Méray veut démontrer qu’une équation binôme a toujours une racine, ou, en termes vulgaires, qu’on peut toujours subdiviser un angle. S’il est une vérité que nous croyons connaître par intuition directe, c’est bien celle-là. Qui doutera qu’un angle peut toujours être partagé en un nombre quelconque de parties égales ? M. Méray n’en juge pas ainsi ; à ses yeux, cette proposition n’est nullement évidente et pour la démontrer, il lui faut plusieurs pages. Voyez au contraire M. Klein : il étudie une des questions les plus abstraites de la théorie des fonctions ; il s’agit de savoir si sur une surface de Riemann donnée, il existe toujours une fonction admettant des singularités données. Que fait le célèbre géomètre allemand ? Il remplace sa surface de Riemann par une surface métallique dont la conductibilité électrique varie suivant certaines lois. Il met deux de ses points en communication avec les deux pôles d’une pile. Il faudra bien, dit-il, que le courant passe, et la façon dont ce courant sera distribué sur la surface définira une fonction dont les singularités seront précisément celles qui sont prévues par l’énoncé. Sans doute, M. Klein sait bien qu’il n’a donné là qu’un aperçu : toujours est-il qu’il n’a pas hésité à le publier ; et il croyait probablement y trouver sinon une démonstration rigoureuse, du moins je ne sais quelle certitude morale. Un logicien aurait rejeté avec horreur une semblable conception, ou plutôt il n’aurait pas eu à la rejeter, car dans son esprit elle n’aurait jamais pu naître. Permettez-moi encore de comparer deux hommes, qui sont l’honneur de la Science française, qui nous ont été récemment enlevés, mais qui tous deux étaient depuis longtemps entrés dans l’immortalité. Je veux parler de M. Bertrand et de M. Hermite. Ils ont été élèves de la même école et en même temps ; ils ont subi la même éducation, les mêmes influences ; et pourtant quelle divergence ; ce n’est pas seulement dans leurs écrits qu’on la voit éclater ; c’est dans leur enseignement, dans leur façon de parler, dans leur aspect même. Dans la mémoire de tous leurs élèves, ces deux physionomies se sont gravées en traits ineffaçables ; pour tous ceux qui ont eu le bonheur de suivre leurs leçons, ce souvenir est encore tout récent ; il nous est aisé de l’évoquer. Tout en parlant, M. Bertrand est toujours en action ; tantôt il semble aux prises avec quelque ennemi extérieur, tantôt il dessine d’un geste de la main les figures qu’il étudie. Évidemment, il voit et il cherche à peindre, c’est pour cela qu’il appelle le geste à son secours. Pour M. Hermite, c’est tout le contraire ; ses yeux semblent fuir le contact du monde ; ce n’est pas au dehors, c’est au dedans qu’il cherche la vision de la vérité. Parmi les géomètres allemands de ce siècle, deux noms surtout sont illustres ; ce sont ceux des deux savants qui ont fondé la théorie générale des fonctions, Weierstrass et Riemann. Weierstrass ramène tout à la considération des séries et à leurs transformations analytiques ; pour mieux dire, il réduit l’Analyse à une sorte de prolongement de l’Arithmétique ; on peut parcourir tous ses Livres sans y trouver une figure. Riemann, au contraire, appelle de suite la Géométrie à son secours, chacune de ses conceptions est une image que nul ne peut oublier dès qu’il en a compris le sens. Plus récemment, Lie était un intuitif ; on aurait pu hésiter en lisant ses ouvrages, on n’hésitait plus après avoir causé avec lui ; on voyait tout de suite qu’il pensait en images. M me Kowalevski était une logicienne. Chez nos étudiants, nous remarquons les mêmes différences ; les uns aiment mieux traiter leurs problèmes « par l’Analyse », les autres « par la Géométrie ». Les premiers sont incapables de « voir dans l’espace », les autres se lasseraient promptement des longs calculs et s’y embrouilleraient. Les deux sortes d’esprits sont également nécessaires aux progrès de la Science ; les logiciens, comme les intuitifs, ont fait de grandes choses que les autres n’auraient pas pu faire. Qui oserait dire s’il aimerait mieux que Weierstrass n’eût jamais écrit, ou s’il préférerait qu’il n’y eût pas eu de Riemann ? L’Analyse et la Synthèse ont donc toutes deux leur rôle légitime. Mais il est intéressant d’étudier de plus près quelle est dans l’histoire de la Science la part qui revient à l’une et à l’autre. II Chose curieuse ! Si nous relisons les Œuvres des anciens, nous serons tentés de les classer tous parmi les intuitifs. Et pourtant la nature est toujours la même, il est peu probable qu’elle ait commencé dans ce siècle à créer des esprits amis de la logique. Si nous pouvions nous replacer dans le courant des idées qui régnaient de leur temps, nous reconnaîtrions que beaucoup de ces vieux géomètres étaient analystes par leurs tendances. Euclide, par exemple, a élevé un échafaudage savant où ses contemporains ne pouvaient trouver de défaut. Dans cette vaste construction, dont chaque pièce, pourtant, est due à l’intuition, nous pouvons encore aujourd’hui sans trop d’efforts reconnaître l’œuvre d’un logicien. Ce ne sont pas les esprits qui ont changé, ce sont les idées ; les esprits intuitifs sont restés les mêmes ; mais leurs lecteurs ont exigé d’eux plus de concessions. Quelle est la raison de cette évolution ? Il n’est pas difficile de la découvrir. L’intuition ne peut nous donner la rigueur, ni même la certitude, on s’en est aperçu de plus en plus. Citons quelques exemples. Nous savons qu’il existe des fonctions continues dépourvues de dérivées. Rien de plus choquant pour l’intuition que cette proposition qui nous est imposée par la logique. Nos pères n’auraient pas manqué de dire : « Il est évident que toute fonction continue a une dérivée, puisque toute courbe a une tangente. » Comment l’intuition peut-elle nous tromper à ce point ? C’est que quand nous cherchons à imaginer une courbe, nous ne pouvons pas nous la représenter sans épaisseur ; de même, quand nous nous représentons une droite, nous la voyons sous la forme d’une bande rectiligne d’une certaine largeur. Nous savons bien que ces lignes n’ont pas d’épaisseur ; nous nous efforçons de les imaginer de plus en plus minces et de nous rapprocher ainsi de la limite ; nous y parvenons dans une certaine mesure, mais nous n’atteindrons jamais cette limite. Et alors il est clair que nous pourrons toujours nous représenter ces deux rubans étroits, l’un rectiligne, l’autre curviligne, dans une position telle qu’ils empiètent légèrement l’un sur l’autre sans se traverser. Nous serons ainsi amenés, à moins d’être avertis par une analyse rigoureuse, à conclure qu’une courbe a toujours une tangente. Je prendrai comme second exemple le principe de Dirichlet sur lequel reposent tant de théorèmes de physique mathématique ; aujourd’hui on l’établit par des raisonnements très rigoureux mais très longs ; autrefois, au contraire, on se contentait d’une démonstration sommaire. Une certaine intégrale dépendant d’une fonction arbitraire ne peut jamais s’annuler. On en concluait qu’elle doit avoir un minimum. Le défaut de ce raisonnement nous apparaît immédiatement, parce que nous employons le terme abstrait de fonction et que nous sommes familiarisés avec toutes les singularités que peuvent présenter les fonctions quand on entend ce mot dans le sens le plus général. Mais il n’en serait pas de même si l’on s’était servi d’images concrètes, si l’on avait, par exemple, considéré cette fonction comme un potentiel électrique ; on aurait pu croire légitime d’affirmer que l’équilibre électrostatique peut être atteint. Peut-être cependant une comparaison physique aurait éveillé quelques vagues défiances. Mais si l’on avait pris soin de traduire le raisonnement dans le langage de la Géométrie, intermédiaire entre celui de l’Analyse et celui de la Physique, ces défiances ne se seraient sans doute pas produites, et peut-être pourrait-on ainsi, même aujourd’hui, tromper encore bien des lecteurs non prévenus. L’intuition ne nous donne donc pas la certitude. Voilà pourquoi l’évolution devait se faire ; voyons maintenant comment elle s’est faite. On n’a pas tardé à s’apercevoir que la rigueur ne pourrait pas s’introduire dans les raisonnements, si on ne la faisait entrer d’abord dans les définitions. Longtemps les objets dont s’occupent les mathématiciens étaient pour la plupart mal définis ; on croyait les connaître, parce qu’on se les représentait avec les sens ou l’imagination ; mais on n’en avait qu’une image grossière et non une idée précise sur laquelle le raisonnement pût avoir prise. C’est là d’abord que les logiciens ont dû porter leurs efforts. Ainsi pour le nombre incommensurable. L’idée vague de continuité, que nous devions à l’intuition, s’est résolue en un système compliqué d’inégalités portant sur des nombres entiers. Par là, les difficultés provenant des passages à la limite, ou de la considération des infiniment petits, se sont trouvées définitivement éclaircies. Il ne reste plus aujourd’hui en Analyse que des nombres entiers ou des systèmes finis ou infinis de nombres entiers, reliés entre eux par un réseau de relations d’égalité ou d’inégalité. Les Mathématiques, comme on l’a dit, se sont arithmétisées. III Une première question se pose. Cette évolution est-elle terminée ? Avons-nous atteint enfin la rigueur absolue ? À chaque stade de l’évolution nos pères croyaient aussi l’avoir atteinte. S’ils se trompaient, ne nous trompons-nous pas comme eux ? Nous croyons dans nos raisonnements ne plus faire appel à l’intuition ; les philosophes nous diront que c’est là une illusion. La logique toute pure ne nous mènerait jamais qu’à des tautologies ; elle ne pourrait créer du nouveau ; ce n’est pas d’elle toute seule qu’aucune science peut sortir. Ces philosophes ont raison dans un sens ; pour faire l’Arithmétique, comme pour faire la Géométrie, ou pour faire une science quelconque, il faut autre chose que la logique pure. Cette autre chose, nous n’avons pour la désigner d’autre mot que celui d’intuition. Mais combien d’idées différentes se cachent sous ces mêmes mots ? Comparons ces quatre axiomes :   1° Deux quantités égales à une troisième sont égales entre elles ;  2° Si un théorème est vrai du nombre 1 et si l’on démontre qu’il est vrai de n + 1, pourvu qu’il le soit de n, il sera vrai de tous les nombres entiers ; 3° Si sur une droite le point C est entre A et B et le point D entre A et G, le point D sera entre A et B ; 4° Par un point on ne peut mener qu’une parallèle à une droite.   Tous quatre doivent être attribués à l’intuition, et cependant le premier est l’énoncé d’une des règles de la logique formelle ; le second est un véritable jugement synthétique a priori, c’est le fondement de l’induction mathématique rigoureuse ; le troisième est un appel à l’imagination ; le quatrième est une définition déguisée. L’intuition n’est pas forcément fondée sur le témoignage des sens ; les sens deviendraient bientôt impuissants ; nous ne pouvons, par exemple, nous représenter le chilogone, et cependant nous raisonnons par intuition sur les polygones en général, qui comprennent le chilogone comme cas particulier. Vous savez ce que Poncelet entendait par le principe de continuité. Ce qui est vrai d’une quantité réelle, disait Poncelet, doit l’être d’une quantité imaginaire ; ce qui est vrai de l’hyperbole dont les asymptotes sont réelles, doit donc être vrai de l’ellipse dont les asymptotes sont imaginaires. Poncelet était l’un des esprits les plus intuitifs de ce siècle ; il l’était avec passion, presque avec ostentation ; il regardait le principe de continuité comme une de ses conceptions les plus hardies, et cependant ce principe ne reposait pas sur le témoignage des sens ; c’était plutôt contredire ce témoignage que d’assimiler l’hyperbole à l’ellipse. Il n’y avait là qu’une sorte de généralisation hâtive et instinctive que je ne veux d’ailleurs pas défendre. Nous avons donc plusieurs sortes d’intuitions ; d’abord, l’appel aux sens et à l’imagination ; ensuite, la généralisation par induction, calquée, pour ainsi dire, sur les procédés des sciences expérimentales ; nous avons enfin l’intuition du nombre pur, celle d’où est sorti le second des axiomes que j’énonçais tout à l’heure et qui peut engendrer le véritable raisonnement mathématique. Les deux premières ne peuvent nous donner la certitude, je l’ai montré plus haut par des exemples ; mais qui doutera sérieusement de la troisième, qui doutera de l’Arithmétique ? Or, dans l’Analyse d’aujourd’hui, quand on veut se donner la peine d’être rigoureux, il n’y a plus que des syllogismes ou des appels à cette intuition du nombre pur, la seule qui ne puisse nous tromper. On peut dire qu’aujourd’hui la rigueur absolue est atteinte. IV Les philosophes font encore une autre objection : « Ce que vous gagnez en rigueur, disent-ils, vous le perdez en objectivité. Vous ne pouvez vous élever vers votre idéal logique qu’en coupant les liens qui vous rattachent à la réalité. Votre Science est impeccable, mais elle ne peut le rester qu’en s’enfermant dans une tour d’ivoire et en s’interdisant tout rapport avec le monde extérieur. Il faudra bien qu’elle en sorte dès qu’elle voudra tenter la moindre application. » Je veux démontrer, par exemple, que telle propriété appartient à tel objet dont la notion me semble d’abord indéfinissable, parce qu’elle est intuitive. J’échoue d’abord ou je dois me contenter de démonstrations par à peu près ; je me décide enfin à donner à mon objet une définition précise, ce qui me permet d’établir cette propriété d’une manière irréprochable. « Et après ? disent les philosophes, il reste encore à montrer que l’objet qui répond à cette définition est bien le même que l’intuition vous a fait connaître ; ou bien encore que tel objet réel et concret dont vous croyiez reconnaître immédiatement la conformité avec votre idée intuitive, répond bien à votre définition nouvelle. C’est alors seulement que vous pourrez affirmer qu’il jouit de la propriété en question. Vous n’avez fait que déplacer la difficulté. » Cela n’est pas exact ; on n’a pas déplacé la difficulté, on l’a divisée. La proposition qu’il s’agissait d’établir se composait en réalité de deux vérités différentes, mais que l’on n’avait pas distinguées tout d’abord. La première était une vérité mathématique et elle est maintenant rigoureusement établie. La seconde était une vérité expérimentale. L’expérience seule peut nous apprendre que tel objet réel et concret répond ou ne répond pas à telle définition abstraite. Cette seconde vérité n’est pas démontrée mathématiquement, mais elle ne peut pas l’être, pas plus que ne peuvent l’être les lois empiriques des Sciences physiques et naturelles. Il serait déraisonnable de demander davantage. Eh bien ! n’est-ce pas un grand progrès d’avoir distingué ce qu’on avait longtemps confondu à tort ? Est-ce à dire qu’il n’y a rien à retenir de cette objection des philosophes ? Ce n’est pas cela que je veux dire ; en devenant rigoureuse, la Science mathématique prend un caractère artificiel qui frappera tout le monde ; elle oublie ses origines historiques ; on voit comment les questions peuvent se résoudre, on ne voit plus comment et pourquoi elles se posent. Cela nous montre que la logique ne suffît pas ; que la Science de la démonstration n’est pas la Science tout entière et que l’intuition doit conserver son rôle comme complément, j’allais dire comme contrepoids ou comme contrepoison de la logique. J’ai déjà eu l’occasion d’insister sur la place que doit garder l’intuition dans l’enseignement des Sciences mathématiques. Sans elle, les jeunes esprits ne sauraient s’initier à l’intelligence des Mathématiques ; ils n’apprendraient pas à les aimer et n’y verraient qu’une vaine logomachie ; sans elle surtout, ils ne deviendraient jamais capables de les appliquer. Mais aujourd’hui, c’est avant tout du rôle de l’intuition dans la Science elle-même que je voudrais parler. Si elle est utile à l’étudiant, elle l’est plus encore au savant créateur. V Nous cherchons la réalité, mais qu’est-ce que la réalité ? Les physiologistes nous apprennent que les organismes sont formés de cellules ; les chimistes ajoutent que les cellules elles-mêmes sont formées d’atomes. Cela veut-il dire que ces atomes ou que ces cellules constituent la réalité, ou du moins la seule réalité ? La façon dont ces cellules sont agencées et d’où résulte l’unité de l’individu, n’est-elle pas aussi une réalité, beaucoup plus intéressante que celle des éléments isolés, et un naturaliste, qui n’aurait jamais étudié l’éléphant qu’au microscope, croirait- il connaître suffisamment cet animal ? Eh bien ! en Mathématiques, il y a quelque chose d’analogue. Le logicien décompose pour ainsi dire chaque démonstration en un très grand nombre d’opérations élémentaires ; quand on aura examiné ces opérations les unes après les autres et qu’on aura constaté que chacune d’elles est correcte, croira-t-on avoir compris le véritable sens de la démonstration ? L’aura-t-on compris même quand, par un effort de mémoire, on sera devenu capable de répéter cette démonstration en reproduisant toutes ces opérations élémentaires dans l’ordre même où les avait rangées l’inventeur ? Évidemment non, nous ne posséderons pas encore la réalité tout entière, ce je ne sais quoi qui fait l’unité de la démonstration nous échappera complètement. L’Analyse pure met à notre disposition une foule de procédés dont elle nous garantit l’infaillibilité ; elle nous ouvre mille chemins différents où nous pouvons nous engager en toute confiance ; nous sommes assurés de n’y pas rencontrer d’obstacles ; mais, de tous ces chemins, quel est celui qui nous mènera le plus promptement au but ? Qui nous dira lequel il faut choisir ? Il nous faut une faculté qui nous fasse voir le but de loin, et, cette faculté, c’est l’intuition. Elle est nécessaire à l’explorateur pour choisir sa route, elle ne l’est pas moins à celui qui marche sur ses traces et qui veut savoir pourquoi il l’a choisie. Si vous assistez à une partie d’échecs, il ne vous suffira pas, pour comprendre la partie, de savoir les règles de la marche des pièces. Cela vous permettrait seulement de reconnaître que chaque coup a été joué conformément à ces règles et cet avantage aurait vraiment bien peu de prix. C’est pourtant ce que ferait le lecteur d’un livre de Mathématiques, s’il n’était que logicien. Comprendre la partie, c’est tout autre chose ; c’est savoir pourquoi le joueur avance telle pièce plutôt que telle autre qu’il aurait pu faire mouvoir sans violer les règles du jeu. C’est apercevoir la raison intime qui fait de cette série de coups successifs une sorte de tout organisé. À plus forte raison, cette faculté est-elle nécessaire au joueur lui- même, c’est-à-dire à l’inventeur. Laissons là cette comparaison et revenons aux Mathématiques. Voyons ce qui est arrivé, par exemple pour l’idée de fonction continue. Au début, ce n’était qu’une image sensible, par exemple, celle d’un trait continu tracé à la craie sur un tableau noir. Puis elle s’est épurée peu à peu, bientôt on s’en est servi pour construire un système compliqué d’inégalités, qui reproduisait pour ainsi dire toutes les lignes de l’image primitive ; quand cette construction a été terminée, on a décintré, pour ainsi dire, on a rejeté cette représentation grossière qui lui avait momentanément servi d’appui et qui était désormais inutile ; il n’est plus resté que la construction elle-même, irréprochable aux yeux du logicien. Et cependant si l’image primitive avait totalement disparu de notre souvenir, comment devinerions- nous par quel caprice toutes ces inégalités se sont échafaudées de cette façon les unes sur les autres ? Vous trouverez peut-être que j’abuse des comparaisons ; passez-m’en cependant encore une. Vous avez vu sans doute ces assemblages délicats d’aiguilles siliceuses qui forment le squelette de certaines éponges. Quand la matière organique a disparu, il ne reste qu’une frêle et élégante dentelle. Il n’y a là, il est vrai, que de la silice, mais, ce qui est intéressant, c’est la forme qu’a prise cette silice, et nous ne pouvons la comprendre si nous ne connaissons pas l’éponge vivante qui lui a précisément imprimé cette forme. C’est ainsi que les anciennes notions intuitives de nos pères, même lorsque nous les avons abandonnées, impriment encore leur forme aux échafaudages logiques que nous avons mis à leur place. Cette vue d’ensemble est nécessaire à l’inventeur ; elle est nécessaire également à celui qui veut réellement comprendre l’inventeur ; la logique peut-elle nous la donner ? Non ; le nom que lui donnent les mathématiciens suffirait pour le prouver. En Mathématiques, la logique s’appelle Analyse et analyse veut dire division, dissection. Elle ne peut donc avoir d’autre outil que le scalpel et le microscope. Ainsi, la logique et l’intuition ont chacune leur rôle nécessaire. Toutes deux sont indispensables. La logique qui peut seule donner la certitude est l’instrument de la démonstration : l’intuition est l’instrument de l’invention. VI Mais, au moment de formuler cette conclusion, je suis pris d’un scrupule. Au début, j’ai distingué deux sortes d’esprits mathématiques, les uns logiciens et analystes, les autres intuitifs et géomètres. Eh bien, les analystes aussi ont été des inventeurs. Les noms que j’ai cités tout à l’heure me dispensent d’insister. Il y a là une contradiction au moins apparente qu’il est nécessaire d’expliquer. Croit-on d’abord que ces logiciens ont toujours procédé du général au particulier, comme les règles de la logique formelle semblaient les y obliger ? Ce n’est pas ainsi qu’ils auraient pu étendre les frontières de la Science ; on ne peut faire de conquête scientifique que par la généralisation. Dans un des chapitres de Science et Hypothèse, j’ai eu l’occasion d’étudier la nature du raisonnement mathématique et j’ai montré comment ce raisonnement, sans cesser d’être absolument rigoureux, pouvait nous élever du particulier au général par un procédé que j’ai appelé l’induction mathématique. C’est par ce procédé que les analystes ont fait progresser la Science et si l’on examine le détail même de leurs démonstrations, on l’y retrouvera à chaque instant à côté du syllogisme classique d’Aristote. Nous voyons donc déjà que les analystes ne sont pas simplement des faiseurs de syllogismes à la façon des scolastiques. Croira-t-on, d’autre part, qu’ils ont toujours marché pas à pas sans avoir la vision du but qu’ils voulaient atteindre ? Il a bien fallu qu’ils devinassent le chemin qui y conduisait, et pour cela ils ont eu besoin d’un guide. Ce guide, c’est d’abord l’analogie. Par exemple, un des raisonnements chers aux analystes est celui qui est fondé sur l’emploi des fonctions majorantes. On sait qu’il a déjà servi à résoudre une foule de problèmes ; en quoi consiste alors le rôle de l’inventeur qui veut l’appliquer à un problème nouveau ? Il faut d’abord qu’il reconnaisse l’analogie de cette question avec celles qui ont déjà été résolues par cette méthode ; il faut ensuite qu’il aperçoive en quoi cette nouvelle question diffère des autres, et qu’il en déduise les modifications qu’il est nécessaire d’apporter à la méthode. Mais comment aperçoit-on ces analogies et ces différences ? Dans l’exemple que je viens de citer, elles sont presque toujours évidentes, mais j’aurais pu en trouver d’autres où elles auraient été beaucoup plus cachées ; souvent il faut pour les découvrir une perspicacité peu commune. Les analystes, pour ne pas laisser échapper ces analogies cachées, c’est- à-dire pour pouvoir être inventeurs, doivent, sans le secours des sens et de l’imagination, avoir le sentiment direct de ce qui fait l’unité d’un raisonnement, de ce qui en fait pour ainsi dire l’âme et la vie intime. Quand on causait avec M. Hermite ; jamais il n’évoquait une image sensible, et pourtant vous vous aperceviez bientôt que les entités les plus abstraites étaient pour lui comme des êtres vivants. Il ne les voyait pas, mais il sentait qu’elles ne sont pas un assemblage artificiel, et qu’elles ont je ne sais quel principe d’unité interne. Mais, dira-t-on, c’est là encore de l’intuition. Conclurons-nous que la distinction faite au début n’était qu’une apparence, qu’il n’y a qu’une sorte d’esprits et que tous les mathématiciens sont des intuitifs, du moins ceux qui sont capables d’inventer ? Non, notre distinction correspond à quelque chose de réel. J’ai dit plus haut qu’il y a plusieurs espèces d’intuition. J’ai dit combien l’intuition du nombre pur, celle d’où peut sortir l’induction mathématique rigoureuse, diffère de l’intuition sensible dont l’imagination proprement dite fait tous les frais. L’abîme qui les sépare est-il moins profond qu’il ne paraît d’abord ? Reconnaîtrait-on avec un peu d’attention que cette intuition pure elle-même ne saurait se passer du secours des sens ? C’est là l’affaire du psychologue et du métaphysicien et je ne discuterai pas cette question. Mais il suffit que la chose soit douteuse pour que je sois en droit de reconnaître et d’affirmer une divergence essentielle entre les deux sortes d’intuition ; elles n’ont pas le même objet et semblent mettre en jeu deux facultés différentes de notre âme ; on dirait de deux projecteurs braqués sur deux mondes étrangers l’un à l’autre. C’est l’intuition du nombre pur, celle des formes logiques pures qui éclaire et dirige ceux que nous avons appelés analystes. C’est elle qui leur permet non seulement de démontrer, mais encore d’inventer. C’est par elle qu’ils aperçoivent d’un coup d’œil le plan général d’un édifice logique, et cela sans que les sens paraissent intervenir. En rejetant le secours de l’imagination, qui, nous l’avons vu, n’est pas toujours infaillible, ils peuvent avancer sans crainte de se tromper. Heureux donc ceux qui peuvent se passer de cet appui ! Nous devons les admirer, mais combien ils sont rares ! Pour les analystes, il y aura donc des inventeurs, mais il y en aura peu. La plupart d’entre nous, s’ils voulaient voir de loin par la seule intuition pure, se sentiraient bientôt pris de vertige. Leur faiblesse a besoin d’un bâton plus solide et, malgré les exceptions dont nous venons de parler, il n’en est pas moins vrai que l’intuition sensible est en Mathématiques l’instrument le plus ordinaire de l’invention. À propos des dernières réflexions que je viens de faire, une question se pose que je n’ai le temps, ni de résoudre, ni même d’énoncer avec les développements qu’elle comporterait. Y a-t-il lieu de faire une nouvelle coupure et de distinguer parmi les analystes ceux qui se servent surtout de cette intuition pure ou ceux qui se préoccupent d’abord de la logique formelle ? M. Hermite, par exemple, que je citais tout à l’heure, ne peut être classé parmi les géomètres qui font usage de l’intuition sensible ; mais il n’est pas non plus un logicien proprement dit. Il ne cache pas sa répulsion pour les procédés purement déductifs qui partent du général pour aller au particulier.     CHAPITRE II La mesure du Temps I Tant que l’on ne sort pas du domaine de la conscience, la notion du temps est relativement claire. Non seulement nous distinguons sans peine la sensation présente du souvenir des sensations passées ou de la prévision des sensations futures ; mais nous savons parfaitement ce que nous voulons dire quand nous affirmons que, de deux phénomènes conscients dont nous avons conservé le souvenir, l’un a été antérieur à l’autre ; ou bien que, de deux phénomènes conscients prévus, l’un sera antérieur à l’autre. Quand nous disons que deux faits conscients sont simultanés, nous voulons dire qu’ils se pénètrent profondément l’un l’autre, de telle sorte que l’analyse ne peut les séparer sans les mutiler. L’ordre dans lequel nous rangeons les phénomènes conscients ne comporte aucun arbitraire. Il nous est imposé et nous n’y pouvons rien changer. Je n’ai qu’une observation à ajouter. Pour qu’un ensemble de sensations soit devenu un souvenir susceptible d’être classé dans le temps, il faut qu’il ait cessé d’être actuel, que nous ayons perdu le sens de son infinie complexité, sans quoi il serait resté actuel. Il faut qu’il ait pour ainsi dire cristallisé autour d’un centre d’associations d’idées qui sera comme une sorte d’étiquette. Ce n’est que quand ils auront ainsi perdu toute vie que nous pourrons classer nos souvenirs dans le temps, comme un botaniste range dans son herbier les fleurs desséchées. Mais ces étiquettes ne peuvent être qu’en nombre fini. À ce compte, le temps psychologique serait discontinu. D’où vient ce sentiment qu’entre deux instants quelconques il y a d’autres instants ? Nous classons nos souvenirs dans le temps, mais nous savons qu’il reste des cases vides. Comment cela se pourrait-il si le temps n’était une forme préexistant dans notre esprit ? Comment saurions-nous qu’il y a des cases vides, si ces cases ne nous étaient révélées que par leur contenu ? II Mais ce n’est pas tout ; dans cette forme nous voulons faire rentrer non seulement les phénomènes de notre conscience, mais ceux dont les autres consciences sont le théâtre. Bien plus, nous voulons y faire rentrer les faits physiques, ces je ne sais quoi dont nous peuplons l’espace et que nulle conscience ne voit directement. Il le faut bien car sans cela la science ne pourrait exister. En un mot, le temps psychologique nous est donné et nous voulons créer le temps scientifique et physique. C’est là que la difficulté commence, ou plutôt les difficultés, car il y en a deux. Voilà deux consciences qui sont comme deux mondes impénétrables l’un à l’autre. De quel droit voulons-nous les faire entrer dans un même moule, les mesurer avec la même toise ? N’est-ce pas comme si l’on voulait mesurer avec un gramme ou peser avec un mètre ? Et d’ailleurs, pourquoi parlons-nous de mesure ? Nous savons peut-être que tel fait est antérieur à tel autre, mais non de combien il est antérieur. Donc deux difficultés : 1° Pouvons-nous transformer le temps psychologique, qui est qualitatif, en un temps quantitatif ? 2° Pouvons-nous réduire à une même mesure des faits qui se passent dans des mondes différents ? III La première difficulté a été remarquée depuis longtemps ; elle a fait l’objet de longues discussions et on peut dire que la question est tranchée. Nous n’avons pas l’intuition directe de l’égalité de deux intervalles de temps. Les personnes qui croient posséder cette intuition sont dupes d’une illusion. Quand je dis, de midi à une heure, il s’est écoulé le même temps que de deux heures à trois heures, quel sens a cette affirmation ? La moindre réflexion montre qu’elle n’en a aucun par elle-même. Elle n’aura que celui que je voudrai bien lui donner, par une définition qui comportera certainement un certain degré d’arbitraire. Les psychologues auraient pu se passer de cette définition ; les physiciens, les astronomes ne le pouvaient pas ; voyons comment ils s’en sont tirés. Pour mesurer le temps, ils se servent du pendule et ils admettent par définition que tous les battements de ce pendule sont d’égale durée. Mais ce n’est là qu’une première approximation ; la température, la résistance de l’air, la pression barométrique font varier la marche du pendule. Si on échappait à ces causes d’erreur, on obtiendrait une approximation beaucoup plus grande, mais ce ne serait encore qu’une approximation. Des causes nouvelles, négligées jusqu’ici, électriques, magnétiques ou autres, viendraient apporter de petites perturbations. En fait, les meilleures horloges doivent être corrigées de temps en temps, et les corrections se font à l’aide des observations astronomiques ; on s’arrange pour que l’horloge sidérale marque la même heure quand la même étoile passe au méridien. En d’autres termes, c’est le jour sidéral, c’est-à-dire la durée de rotation de la terre, qui est l’unité constante du temps. On admet, par une définition nouvelle substituée à celle qui est tirée des battements du pendule, que deux rotations complètes de la terre autour de son axe ont même durée. Cependant les astronomes ne se sont pas contentés encore de cette définition. Beaucoup d’entre eux pensent que les marées agissent comme un frein sur notre globe, et que la rotation de la terre devient de plus en plus lente. Ainsi s’expliquerait l’accélération apparente du mouvement de la lune, qui paraîtrait aller plus vite que la théorie ne le lui permet parce que notre horloge, qui est la terre, retarderait. IV Tout cela importe peu, dira-t-on, sans doute nos instruments de mesure sont imparfaits, mais il suffit que nous puissions concevoir un instrument parfait. Cet idéal ne pourra être atteint, mais ce sera assez de l’avoir conçu et d’avoir ainsi mis la rigueur dans la définition de l’unité de temps. Le malheur est que cette rigueur ne s’y rencontre pas. Quand nous nous servons du pendule pour mesurer le temps, quel est le postulat que nous admettons implicitement ? C’est que la durée de deux phénomènes identiques est la même ; ou, si l’on aime mieux, que les mêmes causes mettent le même temps à produire les mêmes effets. Et c’est là au premier abord une bonne définition de l’égalité de deux durées. Prenons-y garde cependant. Est-il impossible que l’expérience démente un jour notre postulat ? Je m’explique ; je suppose qu’en un certain point du monde se passe le phénomène α, amenant pour conséquence au bout d’un certain temps l’effet α′. En un autre point du monde très éloigné du premier, se passe le phénomène β, qui amène comme conséquence l’effet β′. Les phénomènes α et β sont simultanés, de même que les effets α′ et β′. À une époque ultérieure, le phénomène α se reproduit dans des circonstances à peu près identiques et simultanément le phénomène β se reproduit aussi en un point très éloigné du monde et à peu près dans les mêmes circonstances. Les effets α′ et β′ vont aussi se reproduire. Je suppose que l’effet α′ ait lieu sensiblement avant l’effet β′. Si l’expérience nous rendait témoins d’un tel spectacle, notre postulat se trouverait démenti. Car l’expérience nous apprendrait que la première durée αα′ est égale à la première durée ββ′ et que la seconde durée αα′ est plus petite que la seconde durée ββ′. Au contraire notre postulat exigerait que les deux durées αα′ fussent égales entre elles, de même que les deux durées ββ′. L’égalité et l’inégalité déduites de l’expérience seraient incompatibles avec les deux égalités tirées du postulat. Or, pouvons-nous affirmer que les hypothèses que je viens de faire soient absurdes ? Elles n’ont rien de contraire au principe de contradiction. Sans doute elles ne sauraient se réaliser sans que le principe de raison suffisante semble violé. Mais pour justifier une définition aussi fondamentale, j’aimerais mieux un autre garant. V Mais ce n’est pas tout. Dans la réalité physique, une cause ne produit pas un effet, mais une multitude de causes distinctes contribuent à le produire, sans qu’on ait aucun moyen de discerner la part de chacune d’elles. Les physiciens cherchent à faire cette distinction ; mais ils ne la font qu’à peu près, et quelques progrès qu’ils fassent, ils ne la feront jamais qu’à peu près. Il est à peu près vrai que le mouvement du pendule est dû uniquement à l’attraction de la Terre ; mais en toute rigueur, il n’est pas jusqu’à l’attraction de Sirius qui n’agisse sur le pendule. Dans ces conditions, il est clair que les causes qui ont produit un certain effet ne se reproduiront jamais qu’à peu près. Et alors nous devons modifier notre postulat et notre définition. Au lieu de dire : « Les mêmes causes mettent le même temps à produire les mêmes effets. » Nous devons dire : « Des causes à peu près identiques mettent à peu près le même temps pour produire à peu près les mêmes effets. » Notre définition n’est donc plus qu’approchée. D’ailleurs, comme le fait très justement remarquer M. Calinon dans un mémoire récent (Étude sur les diverses grandeurs, Paris, Gauthier-Villars, 1897) : « Une des circonstances d’un phénomène quelconque est la vitesse de la rotation de la terre ; si cette vitesse de rotation varie, elle constitue, dans la reproduction de ce phénomène une circonstance qui ne reste plus identique à elle-même. Mais supposer cette vitesse de rotation constante, c’est supposer qu’on sait mesurer le temps. » Notre définition n’est donc pas encore satisfaisante ; ce n’est certainement pas celle qu’adoptent implicitement les astronomes dont je parlais plus haut, quand ils affirment que la rotation terrestre va en se ralentissant. Quel sens a dans leur bouche cette affirmation ? Nous ne pouvons le comprendre qu’en analysant les preuves qu’ils donnent de leur proposition. Ils disent d’abord que le frottement des marées produisant de la chaleur doit détruire de la force vive. Ils invoquent donc le principe des forces vives ou de la conservation de l’énergie. Ils disent ensuite que l’accélération séculaire de la lune, calculée d’après la loi de Newton, serait plus petite que celle qui est déduite des observations, si on ne faisait la correction relative au ralentissement de la rotation terrestre. Ils invoquent donc la loi de Newton. En d’autres termes, ils définissent la durée de la façon suivante : le temps doit être défini de telle façon que la loi de Newton et celle des forces vives soient vérifiées. La loi de Newton est une vérité d’expérience ; comme telle elle n’est qu’approximative, ce qui montre que nous n’avons encore qu’une définition par à peu près. Si nous supposons maintenant que l’on adopte une autre manière de mesurer le temps, les expériences sur lesquelles est fondée la loi de Newton n’en conserveraient pas moins le même sens. Seulement, l’énoncé de la loi serait différent, parce qu’il serait traduit dans un autre langage ; il serait évidemment beaucoup moins simple. De sorte que la définition implicitement adoptée par les astronomes peut se résumer ainsi : Le temps doit être défini de telle façon que les équations de la mécanique soient aussi simples que possible. En d’autres termes, il n’y a pas une manière de mesurer le temps qui soit plus vraie qu’une autre ; celle qui est généralement adoptée est seulement plus commode. De deux horloges, nous n’avons pas le droit de dire que l’une marche bien et que l’autre marche mal ; nous pouvons dire seulement qu’on a avantage à s’en rapporter aux indications de la première. La difficulté dont nous venons de nous occuper a été, je l’ai dit, souvent signalée ; parmi les ouvrages les plus récents où il en est question, je citerai, outre l’opuscule de M. Calinon, le traité de mécanique de M. Andrade. VI La seconde difficulté a jusqu’ici beaucoup moins attiré l’attention ; elle est cependant tout à fait analogue à la précédente ; et même, logiquement, j’aurais dû en parler d’abord. Deux phénomènes psychologiques se passent dans deux consciences différentes ; quand je dis qu’ils sont simultanés, qu’est-ce que je veux dire ? Quand je dis qu’un phénomène physique, qui se passe en dehors de toute conscience est antérieur ou postérieur à un phénomène psychologique, qu’est-ce que je veux dire ? En 1572, Tycho-Brahé remarqua dans le ciel une étoile nouvelle. Une immense conflagration s’était produite dans quelque astre très lointain ; mais elle s’était produite longtemps auparavant ; il avait fallu pour le moins deux cents ans, avant que la lumière partie de cette étoile eût atteint notre terre. Cette conflagration était donc antérieure à la découverte de l’Amérique. Eh bien, quand je dis cela, quand je considère ce phénomène gigantesque qui n’a peut-être eu aucun témoin, puisque les satellites de cette étoile n’ont peut-être pas d’habitants, quand je dis que ce phénomène est antérieur à la formation de l’image visuelle de l’île d’Española dans la conscience de Christophe Colomb, qu’est-ce que je veux dire ? Il suffit d’un peu de réflexion pour comprendre que toutes ces affirmations n’ont par elles-mêmes aucun sens. Elles ne peuvent en avoir un que par suite d’une convention. VII Nous devons d’abord nous demander comment on a pu avoir l’idée de faire rentrer dans un même cadre tant de mondes impénétrables les uns aux autres. Nous voudrions nous représenter l’univers extérieur, et ce n’est qu’à ce prix que nous croirions le connaître. Cette représentation, nous ne l’aurons jamais nous le savons : notre infirmité est trop grande. Nous voulons au moins que l’on puisse concevoir une intelligence infinie pour laquelle cette représentation serait possible, une sorte de grande conscience qui verrait tout, et qui classerait tout dans son temps, comme nous classons, dans notre temps, le peu que nous voyons. Cette hypothèse est bien grossière et incomplète ; car cette intelligence suprême ne serait qu’un demi-dieu ; infinie en un sens, elle serait limitée en un autre, puisqu’elle n’aurait du passé qu’un souvenir imparfait ; et elle n’en pourrait avoir d’autre, puisque sans cela tous les souvenirs lui seraient également présents et qu’il n’y aurait pas de temps pour elle. Et cependant quand nous parlons du temps, pour tout ce qui se passe en dehors de nous, n’adoptons-nous pas inconsciemment cette hypothèse ; ne nous mettons-nous pas à la place de ce dieu imparfait ; et les athées eux- mêmes ne se mettent-ils pas à la place où serait Dieu, s’il existait ? Ce que je viens de dire nous montre peut-être pourquoi nous avons cherché à faire rentrer tous les phénomènes physiques dans un même cadre. Mais cela ne peut passer pour une définition de la simultanéité, puisque cette intelligence hypothétique, si même elle existait, serait impénétrable pour nous. Il faut donc chercher autre chose. VIII Les définitions ordinaires qui conviennent pour le temps psychologique, ne pourraient plus nous suffire. Deux faits psychologiques simultanés sont liés si étroitement que l’analyse ne peut les séparer sans les mutiler. En est- il de même pour deux faits physiques ? Mon présent n’est-il pas plus près de mon passé d’hier que du présent de Sirius ? On a dit aussi que deux faits doivent être regardés comme simultanés quand l’ordre de leur succession peut être interverti à volonté. Il est évident que cette définition ne saurait convenir pour deux faits physiques qui se produisent à de grandes distances l’un de l’autre, et que, en ce qui les concerne, on ne comprend même plus ce que peut être cette réversibilité ; d’ailleurs, c’est d’abord la succession même qu’il faudrait définir. IX Cherchons donc à nous rendre compte de ce qu’on entend par simultanéité ou antériorité, et pour cela analysons quelques exemples. J’écris une lettre ; elle est lue ensuite par l’ami à qui je l’ai adressée. Voilà deux faits qui ont eu pour théâtre deux consciences différentes. En écrivant cette lettre, j’en ai possédé l’image visuelle, et mon ami a possédé à son tour cette même image en lisant la lettre. Bien que ces deux faits se passent dans des mondes impénétrables, je n’hésite pas à regarder le premier comme antérieur au second, parce que je crois qu’il en est la cause. J’entends le tonnerre, et je conclus qu’il y a eu une décharge électrique ; je n’hésite pas à considérer le phénomène physique comme antérieur à l’image sonore subie par ma conscience, parce que je crois qu’il en est la cause. Voilà donc la règle que nous suivons, et la seule que nous puissions suivre ; quand un phénomène nous apparaît comme la cause d’un autre, nous le regardons comme antérieur. C’est donc par la cause que nous définissons le temps ; mais le plus souvent, quand deux faits nous apparaissent liés par une relation constante, comment reconnaissons-nous lequel est la cause et lequel est l’effet ? Nous admettons que le fait antérieur, l’antécédent, est la cause de l’autre, du conséquent. C’est alors par le temps que nous définissons la cause. Comment se tirer de cette pétition de principe ? Nous disons tantôt post hoc, ergo propter hoc ; tantôt propter hoc, ergo post hoc ; sortira-t-on de ce cercle vicieux ? X Voyons donc, non pas comment on parvient à s’en tirer, car on n’y parvient pas complètement, mais comment on cherche à s’en tirer. J’exécute un acte volontaire A et je subis ensuite une sensation D, que je regarde comme une conséquence de l’acte A ; d’autre part, pour une raison quelconque, j’infère que cette conséquence n’est pas immédiate ; mais qu’il s’est accompli en dehors de ma conscience deux faits B et C dont je n’ai pas été témoin et de telle façon que B soit l’effet de A, que C soit celui de B, et D celui de C. Mais pourquoi cela ? Si je crois avoir des raisons pour regarder les quatre faits A, B, C, D, comme liés l’un à l’autre par un lien de causalité, pourquoi les ranger dans l’ordre causal A B C D et en même temps dans l’ordre chronologique A B C D plutôt que dans tout autre ordre ? Je vois bien que dans l’acte A j’ai le sentiment d’avoir été actif, tandis qu’en subissant la sensation D, j’ai celui d’avoir été passif. C’est pourquoi je regarde A comme la cause initiale et D comme l’effet ultime ; c’est pourquoi je range A au commencement de la chaîne et D à la fin ; mais pourquoi mettre B avant C plutôt que C avant B ? Si l’on se pose cette question, on répondra ordinairement : on sait bien que c’est B qui est la cause de C, puisqu’on voit toujours B se produire avant C. Ces deux phénomènes, quand on est témoin, se passent dans un certain ordre ; quand des phénomènes analogues se produisent sans témoin, il n’y a pas de raison pour que cet ordre soit interverti. Sans doute, mais qu’on y prenne garde ; nous ne connaissons jamais directement les phénomènes physiques B et C ; ce que nous connaissons, ce sont des sensations B′ et C′ produites respectivement par B et par C. Notre conscience nous apprend immédiatement que B′ précède C′ et nous admettons que B et C se succèdent dans le même ordre. Cette règle paraît en effet bien naturelle, et cependant on est souvent conduit à y déroger. Nous n’entendons le bruit du tonnerre que quelques secondes après la décharge électrique du nuage. De deux coups de foudre, l’un lointain, l’autre rapproché, le premier ne peut-il pas être antérieur au second, bien que le bruit du second nous parvienne avant celui du premier ? XI Autre difficulté ; avons-nous bien le droit de parler de la cause d’un phénomène ? si toutes les parties de l’univers sont solidaires dans une certaine mesure, un phénomène quelconque ne sera pas l’effet d’une cause unique, mais la résultante de causes infiniment nombreuses ; il est, dit-on souvent, la conséquence de l’état de l’univers un instant auparavant. Comment énoncer des règles applicables à des circonstances aussi complexes ? et pourtant ce n’est qu’à ce prix que ces règles pourront être générales et rigoureuses. Pour ne pas nous perdre dans cette infinie complexité, faisons une hypothèse plus simple ; considérons trois astres, par exemple, le Soleil, Jupiter et Saturne ; mais, pour plus de simplicité, regardons-les comme réduits à des points matériels et isolés du reste du monde. Les positions et les vitesses des trois corps à un instant donné suffisent pour déterminer leurs positions et leurs vitesses à l’instant suivant, et par conséquent à un instant quelconque. Leur position à l’instant t déterminent leurs positions à l’instant t + h, aussi bien que leurs positions à l’instant t – h. Il y a même plus ; la position de Jupiter à l’instant t, jointe à celle de Saturne à l’instant t + a, détermine la position de Jupiter à un instant quelconque et celle de Saturne à un instant quelconque. L’ensemble des positions qu’occupent Jupiter à l’instant t + ε et Saturne à l’instant t + a + ε est lié à l’ensemble des positions qu’occupent Jupiter à l’instant t et Saturne à l’instant t + a, par des lois aussi précises que celle de Newton, quoique plus compliquées. Dès lors pourquoi ne pas regarder l’un de ces ensembles comme la cause de l’autre, ce qui conduirait à considérer comme simultanés l’instant t de Jupiter et l’instant t + a de Saturne ? Il ne peut y avoir à cela que des raisons de commodités et de simplicité, fort puissantes, il est vrai. XII Mais passons à des exemples moins artificiels ; pour nous rendre compte de la définition implicitement admise par les savants, voyons-les à l’œuvre et cherchons suivant quelles règles ils recherchent la simultanéité. Je prendrai deux exemples simples ; la mesure de la vitesse de la lumière et la détermination des longitudes. Quand un astronome me dit que tel phénomène stellaire, que son télescope lui révèle en ce moment, s’est cependant passé il y a cinquante ans, je cherche ce qu’il veut dire et pour cela, je lui demanderai d’abord comment il le sait, c’est-à-dire comment il a mesuré la vitesse de la lumière. Il a commencé par admettre que la lumière a une vitesse constante, et en particulier que sa vitesse est la même dans toutes les directions. C’est là un postulat sans lequel aucune mesure de cette vitesse ne pourrait être tentée. Ce postulat ne pourra jamais être vérifié directement par l’expérience ; il pourrait être contredit par elle, si les résultats des diverses mesures n’étaient pas concordants. Nous devons nous estimer heureux que cette contradiction n’ait pas lieu et que les petites discordances qui peuvent se produire puissent s’expliquer facilement. Le postulat, en tout cas, conforme au principe de la raison suffisante, a été accepté par tout le monde ; ce que je veux retenir, c’est qu’il nous fournit une règle nouvelle pour la recherche de la simultanéité, entièrement différente de celle que nous avions énoncée plus haut. Ce postulat admis, voyons comment on a mesuré la vitesse de la lumière. On sait que Rœmer s’est servi des éclipses, des satellites de Jupiter, et a cherché de combien l’événement retardait sur la prédiction. Mais cette prédiction comment la fait-on ? C’est à l’aide des lois astronomiques, par exemple de la loi de Newton. Les faits observés ne pourraient-ils pas tout aussi bien s’expliquer si on attribuait à la vitesse de la lumière une valeur un peu différente de la valeur adoptée, et si on admettait que la loi de Newton n’est qu’approchée ? Seulement on serait conduit à remplacer la loi de Newton par une autre plus compliquée. Ainsi on adopte pour la vitesse de la lumière une valeur telle que les lois astronomiques compatibles avec cette valeur soient aussi simples que possible. Quand les marins ou les géographes déterminent une longitude, ils ont précisément à résoudre le problème qui nous occupe ; ils doivent, sans être à Paris, calculer l’heure de Paris. Comment s’y prennent-ils ? Ou bien ils emportent un chronomètre réglé à Paris. Le problème qualitatif de la simultanéité est ramené au problème quantitatif de la mesure du temps. Je n’ai pas à revenir sur les difficultés relatives à ce dernier problème, puisque j’y ai longuement insisté plus haut. Ou bien ils observent un phénomène astronomique tel qu’une éclipse de lune et ils admettent que ce phénomène est aperçu simultanément de tous les points du globe. Cela n’est pas tout à fait vrai, puisque la propagation de la lumière n’est pas instantanée ; si on voulait une exactitude absolue, il y aurait une correction à faire d’après une règle compliquée. Ou bien enfin, ils se servent du télégraphe. Il est clair d’abord que la réception du signal à Berlin, par exemple, est postérieure à l’expédition de ce même signal de Paris. C’est la règle de la cause et de l’effet analysée plus haut. Mais postérieure, de combien ? En général, on néglige la durée de la transmission et on regarde les deux événements comme simultanés. Mais, pour être rigoureux, il faudrait faire encore une petite correction par un calcul compliqué ; on ne la fait pas dans la pratique, parce qu’elle serait beaucoup plus faible que les erreurs d’observation ; sa nécessité théorique n’en subsiste pas moins à notre point de vue, qui est celui d’une définition rigoureuse. De cette discussion, je veux retenir deux choses : 1° Les règles appliquées sont très variées. 2° Il est difficile de séparer le problème qualitatif de la simultanéité du problème quantitatif de la mesure du temps ; soit qu’on se serve d’un chronomètre, soit qu’on ait à tenir compte d’une vitesse de transmission, comme celle de la lumière, car on ne saurait mesurer une pareille vitesse sans mesurer un temps. XIII Il convient de conclure. Nous n’avons pas l’intuition directe de la simultanéité, pas plus que celle de l’égalité de deux durées. Si nous croyons avoir cette intuition, c’est une illusion. Nous y suppléons à l’aide de certaines règles que nous appliquons presque toujours sans nous en rendre compte. Mais quelle est la nature de ces règles ? Pas de règle générale, pas de règle rigoureuse ; une multitude de petites règles applicables à chaque cas particulier. Ces règles ne s’imposent pas à nous et on pourrait s’amuser à en inventer d’autres ; cependant on ne saurait s’en écarter sans compliquer beaucoup l’énoncé des lois de la physique, de la mécanique, de l’astronomie. Nous choisissons donc ces règles, non parce qu’elles sont vraies, mais parce qu’elles sont les plus commodes, et nous pourrions les résumer en disant : « La simultanéité de deux événements, ou l’ordre de leur succession, l’égalité de deux durées, doivent être définies de telle sorte que l’énoncé des lois naturelles soit aussi simple que possible. En d’autres termes, toutes ces règles, toutes ces définitions ne sont que le fruit d’un opportunisme inconscient. »     CHAPITRE III La Notion d’Espace § 1. — INTRODUCTION Dans les articles que j’ai précédemment consacrés à l’espace, j’ai surtout insisté sur les problèmes soulevés par la géométrie non-euclidienne, en laissant presque complètement de côté d’autres questions plus difficiles à aborder, telles que celles qui se rapportent au nombre des dimensions. Toutes les géométries que j’envisageais avaient ainsi un fond commun, ce continuum à trois dimensions qui était le même pour toutes et qui ne se différenciait que par les figures qu’on y traçait ou quand on prétendait le mesurer. Dans ce continuum, primitivement amorphe, on peut imaginer un réseau de lignes et de surfaces, on peut convenir ensuite de regarder les mailles de ce réseau comme égales entre elles, et c’est seulement après cette convention que ce continuum, devenu mesurable, devient l’espace euclidien ou l’espace non-euclidien. De ce continuum amorphe peut donc sortir indifféremment l’un ou l’autre des deux espaces, de même que sur une feuille de papier blanc on peut tracer indifféremment une droite ou un cercle. Dans l’espace nous connaissons des triangles rectilignes dont la somme des angles est égale à deux droites ; mais nous connaissons également des triangles curvilignes dont la somme des angles est plus petite que deux droites. L’existence des uns n’est pas plus douteuse que celle des autres. Donner aux côtés des premiers le nom de droites, c’est adopter la géométrie euclidienne ; donner aux côtés des derniers le nom de droites, c’est adopter la géométrie non-euclidienne. De sorte que, demander quelle géométrie convient-il d’adopter, c’est demander : à quelle ligne convient-il de donner le nom de droite ? Il est évident que l’expérience ne peut résoudre une pareille question ; on ne demanderait pas, par exemple, à l’expérience de décider si je dois appeler une droite AB ou bien CD. D’un autre côté, je ne puis dire non plus que je n’ai pas le droit de donner le nom de droites aux côtés des triangles non-euclidiens, parce qu’ils ne sont pas conformes à l’idée éternelle de droite que je possède par intuition. Je veux bien que j’aie l’idée intuitive du côté du triangle euclidien, mais j’ai également l’idée intuitive du côté du triangle non euclidien. Pourquoi aurai-je le droit d’appliquer le nom de droite à la première de ces idées et pas à la seconde ? En quoi ces deux syllabes feraient-elles partie intégrante de cette idée intuitive ? Évidemment quand nous disons que la droite euclidienne est une vraie droite et que la droite non-euclidienne n’est pas une vraie droite, nous voulons dire tout simplement que la première idée intuitive correspond à un objet plus remarquable que la seconde. Mais comment jugeons-nous que cet objet est plus remarquable ? C’est ce que j’ai recherché dans Science et Hypothèse. C’est là que nous avons vu intervenir l’expérience ; si la droite euclidienne est plus remarquable que la droite non-euclidienne, c’est avant tout qu’elle diffère peu de certains objets naturels remarquables dont la droite non-euclidienne diffère beaucoup. Mais, dira-t-on, la définition de la droite non-euclidienne est artificielle ; essayons un instant de l’adopter, nous verrons que deux cercles de rayon différent recevront tous deux le nom de droites non-euclidiennes, tandis que de deux cercles de même rayon, l’un pourra satisfaire à la définition sans que l’autre y satisfasse, et alors si nous transportons une de ces soi-disant droites sans la déformer, elle cessera d’être une droite. Mais de quel droit considérons-nous comme égales ces deux figures que les géomètres euclidiens appellent deux cercles de même rayon ? C’est parce qu’en transportant l’une d’elles sans la déformer on peut la faire coïncider avec l’autre. Et pourquoi disons-nous que ce transport s’est effectué sans déformation ? Il est impossible d’en donner une bonne raison. Parmi tous les mouvements concevables, il y en a dont les géomètres euclidiens disent qu’ils ne sont pas accompagnés de déformation ; mais il y en a d’autres dont les géomètres non-euclidiens diraient qu’ils ne sont pas accompagnés de déformation. Dans les premiers, dits mouvements euclidiens, les droites euclidiennes restent des droites euclidiennes, et les droites non-euclidiennes ne restent pas des droites non- euclidiennes ; dans les mouvements de la seconde sorte, ou mouvements non-euclidiens, les droites non-euclidiennes restent des droites non- euclidiennes et les droites euclidiennes ne restent pas des droites euclidiennes. On n’a donc pas démontré qu’il était déraisonnable d’appeler droites les côtés des triangles non-euclidiens ; on a démontré seulement que cela serait déraisonnable si on continuait d’appeler mouvements sans déformation les mouvements euclidiens ; mais on aurait montré tout aussi bien qu’il serait déraisonnable d’appeler droites les côtés des triangles euclidiens si l’on appelait mouvements sans déformation les mouvements non-euclidiens. Maintenant quand nous disons que les mouvements euclidiens sont les vrais mouvements sans déformation, que voulons-nous dire ? Nous voulons dire simplement qu’ils sont plus remarquables que les autres ; et pourquoi sont-ils plus remarquables ? c’est parce que certains corps naturels remarquables, les corps solides, subissent des mouvements à peu près pareils. Et alors quand nous demandons : peut-on imaginer l’espace non- euclidien ? cela veut dire : pouvons-nous imaginer un monde où il y aurait des objets naturels remarquables affectant à peu près la forme des droites non-euclidiennes, et des corps naturels remarquables subissant fréquemment des mouvements à peu près pareils aux mouvements non- euclidiens ? J’ai montré dans Science et Hypothèse qu’à cette question il faut répondre oui. On a souvent observé que si tous les corps de l’Univers venaient à se dilater simultanément et dans la même proportion, nous n’aurions aucun moyen de nous en apercevoir, puisque tous nos instruments de mesure grandiraient en même temps que les objets mêmes qu’ils servent à mesurer. Le monde, après cette dilatation, continuerait son train sans que rien vienne nous avertir d’un événement aussi considérable. En d’autres termes, deux mondes qui seraient semblables l’un à l’autre (en entendant le mot similitude au sens du 3 e livre de géométrie) seraient absolument indiscernables. Mais il y a plus, non seulement des mondes seront indiscernables s’ils sont égaux ou semblables, c’est-à-dire si l’on peut passer de l’un à l’autre en changeant les axes de coordonnées, ou en changeant l’échelle à laquelle sont rapportées les longueurs ; mais ils seront encore indiscernables si l’on peut passer de l’un à l’autre par une « transformation ponctuelle » quelconque. Je m’explique. Je suppose qu’à chaque point de l’un corresponde un point de l’autre et un seul, et inversement ; et de plus que les coordonnées d’un point soient des fonctions continues, d’ailleurs tout à fait quelconques, des coordonnées du point correspondant. Je suppose d’autre part qu’à chaque objet du premier monde, corresponde dans le second un objet de même nature placé précisément au point correspondant. Je suppose enfin que cette correspondance réalisée à l’instant initial, se conserve indéfiniment. Nous n’aurions aucun moyen de discerner ces deux mondes l’un de l’autre. Quand on parle de la relativité de l’espace, on ne l’entend pas d’ordinaire dans un sens aussi large ; c’est ainsi cependant qu’il conviendrait de l’entendre. Si l’un de ces univers est notre monde euclidien, ce que ses habitants appelleront droite, ce sera notre droite euclidienne ; mais ce que les habitants du second monde appelleront droite, ce sera une courbe qui jouira des mêmes propriétés par rapport au monde qu’ils habitent et par rapport aux mouvements qu’ils appelleront mouvements sans déformation ; leur géométrie sera donc la géométrie euclidienne, mais leur droite ne sera pas notre droite euclidienne. Ce sera sa transformée par la transformation ponctuelle qui fait passer de notre monde au leur ; les droites de ces hommes ne seront pas nos droites, mais elles auront entre elles les mêmes rapports que nos droites entre elles, c’est dans ce sens que je dis que leur géométrie sera la nôtre. Si alors nous voulons à toute force proclamer qu’ils se trompent, que leur droite n’est pas la vraie droite, si nous ne voulons pas confesser qu’une pareille affirmation n’a aucun sens, du moins devrons- nous avouer que ces gens n’ont aucune espèce de moyen de s’apercevoir de leur erreur. § 2. — LA GÉOMÉTRIE QUALITATIVE Tout cela est relativement facile à comprendre et je l’ai déjà si souvent répété que je crois inutile de m’étendre davantage sur ce sujet. L’espace euclidien n’est pas une forme imposée à notre sensibilité, puisque nous pouvons imaginer l’espace non-euclidien ; mais les deux espaces euclidien et non-euclidien ont un fond commun, c’est ce continuum amorphe dont je parlais au début ; de ce continuum nous pouvons tirer soit l’espace euclidien, soit l’espace lobatchewskien, de même que nous pouvons, en y traçant une graduation convenable, transformer un thermomètre non gradué soit en thermomètre Fahrenheit, soit en thermomètre Réaumur. Et alors une question se pose : ce continuum amorphe, que notre analyse a laissé subsister, n’est-il pas une forme imposée à notre sensibilité ? Nous aurions élargi la prison dans laquelle cette sensibilité est enfermée, mais ce serait toujours une prison. Ce continu possède un certain nombre de propriétés, exemptes de toute idée de mesure. L’étude de ces propriétés est l’objet d’une science qui a été cultivée par plusieurs grands géomètres et en particulier par Riemann et Betti et qui a reçu le nom d’Analysis Sitûs. Dans cette science, on fait abstraction de toute idée quantitative et par exemple, si on constate que sur une ligne le point B est entre les points A et C, on se contentera de cette constatation et on ne s’inquiétera pas de savoir si la ligne ABC est droite ou courbe, ni si la longueur AB est égale à la longueur BC, ou si elle est deux fois plus grande. Les théorèmes de l’Analysis Sitûs ont donc ceci de particulier qu’ils resteraient vrais si les figures étaient copiées par un dessinateur malhabile qui altérerait grossièrement toutes les proportions et remplacerait les droites par des lignes plus ou moins sinueuses. En termes mathématiques, ils ne sont pas altérés par une « transformation ponctuelle » quelconque. On a dit souvent que la géométrie métrique était quantitative, tandis que la géométrie projective était purement qualitative ; cela n’est pas tout à fait vrai : ce qui distingue la droite des autres lignes, ce sont encore des propriétés qui restent quantitatives à certains égards. La véritable géométrie qualitative c’est donc l’Analysis Sitûs. Les mêmes questions qui se posaient à propos des vérités de la géométrie euclidienne, se posent de nouveau à propos des théorèmes de l’Analysis Sitûs. Peuvent-ils être obtenus par un raisonnement déductif ? Sont-ce des conventions déguisées ? Sont-ce des vérités expérimentales ? Sont-ils les caractères d’une forme imposée soit à notre sensibilité, soit à notre entendement ? Je veux simplement observer que les deux dernières solutions s’excluent, ce dont tout le monde ne s’est pas toujours bien rendu compte. Nous ne pouvons pas admettre à la fois qu’il est impossible d’imaginer l’espace à quatre dimensions et que l’expérience nous démontre que l’espace a trois dimensions. L’expérimentateur pose à la nature une interrogation : est-ce ceci ou cela ? et il ne peut la poser sans imaginer les deux termes de l’alternative. S’il était impossible de s’imaginer l’un de ces termes, il serait inutile et d’ailleurs impossible de consulter l’expérience. Nous n’avons pas besoin d’observation pour savoir que l’aiguille d’une horloge n’est pas sur la division 15 du cadran, puisque nous savons d’avance qu’il n’y en a que 12, et nous ne pourrions pas regarder à la division 15 pour voir si l’aiguille s’y trouve, puisque cette division n’existe pas. Remarquons également qu’ici les empiristes sont débarrassés de l’une des objections les plus graves qu’on peut diriger contre eux, de celle qui rend absolument vains d’avance tous leurs efforts pour appliquer leur thèse aux vérités de la géométrie euclidienne. Ces vérités sont rigoureuses et toute expérience ne peut être qu’approchée. En Analysis Sitûs les expériences approchées peuvent suffire pour donner un théorème rigoureux et, par exemple, si l’on voit que l’espace ne peut avoir ni deux ou moins de deux dimensions, ni quatre ou plus de quatre, on est certain qu’il en a exactement 3, car il ne saurait en avoir 2 et demi ou 3 et demi. De tous les théorèmes de l’Analysis Sitûs, le plus important est celui que l’on exprime en disant que l’espace a trois dimensions. C’est de celui-là que nous allons nous occuper, et nous poserons la question en ces termes : Quand nous disons que l’espace a trois dimensions, qu’est-ce que nous voulons dire ? § 3. — LE CONTINU PHYSIQUE À PLUSIEURS DIMENSIONS J’ai expliqué dans Science et Hypothèse d’où nous vient la notion de la continuité physique et comment a pu en sortir celle de la continuité mathématique. Il arrive que nous sommes capables de distinguer deux impressions l’une de l’autre, tandis que nous ne saurions distinguer chacune d’elles d’une même troisième. C’est ainsi que nous pouvons discerner facilement un poids de 12 grammes d’un poids de 10 grammes, tandis qu’un poids de 11 grammes ne saurait se distinguer ni de l’un, ni de l’autre. Une pareille constatation, traduite en symboles, s’écrirait :             A = B,  B = C,  A < C. Ce serait là la formule du continu physique, tel que nous le donne l’expérience brute, d’où une contradiction intolérable que l’on a levée par l’introduction du continu mathématique. Celui-ci est une échelle dont les échelons (nombres commensurables ou incommensurables) sont en nombre infini, mais sont extérieurs les uns aux autres, au lieu d’empiéter les uns sur les autres comme le font, conformément à la formule précédente, les éléments du continu physique. Le continu physique est pour ainsi dire une nébuleuse non résolue, les instruments les plus perfectionnés ne pourraient parvenir à la résoudre ; sans doute si on évaluait les poids avec une bonne balance, au lieu de les apprécier à la main, on distinguerait le poids de 11 grammes de ceux de 10 et de 12 grammes et notre formule deviendrait :             A < B, B < C, A < C. Mais on trouverait toujours entre A et B et entre B et C de nouveaux éléments D et E tels que :       A = D, D = B, A < B ; B = E, E = C, B < C, et la difficulté n’aurait fait que reculer et la nébuleuse ne serait toujours pas résolue ; c’est l’esprit seul qui peut la résoudre et c’est le continu mathématique qui est la nébuleuse résolue en étoiles. Jusqu’à présent toutefois nous n’avons pas introduit la notion du nombre des dimensions. Que voulons-nous dire quand nous disons qu’un continu mathématique ou qu’un continu physique a deux ou trois dimensions ? Il faut d’abord que nous introduisions la notion de coupure, en nous attachant d’abord à l’étude des continus physiques. Nous avons vu ce qui caractérise le continu physique, chacun des éléments de ce continu consiste en un ensemble d’impressions ; et il peut arriver ou bien qu’un élément ne peut pas être discerné d’un autre élément du même continu, si ce nouvel élément correspond à un ensemble d’impressions trop peu différentes, ou bien au contraire que la distinction est possible ; enfin il peut se faire que deux éléments, indiscernables d’un même troisième, peuvent néanmoins être discernés l’un de l’autre. Cela posé, si A et B sont deux éléments discernables d’un continu C, on pourra trouver une série d’éléments             E 1 , E 2 , ....., E n appartenant tous à ce même continu C et tels que chacun d’eux est indiscernable du précédent, que E 1 est indiscernable de A et E n indiscernable de B. On pourra donc aller de A à B par un chemin continu et sans quitter C. Si cette condition est remplie pour deux éléments quelconques A et B du continu C, nous pourrons dire que ce continu C est d’un seul tenant. Distinguons maintenant quelques-uns des éléments de C qui pourront ou bien être tous discernables les uns des autres, ou former eux-mêmes un ou plusieurs continus. L’ensemble des éléments ainsi choisis arbitrairement parmi tous ceux de C formera ce que j’appellerai la ou les coupures. Reprenons sur C deux éléments quelconques A et B. Ou bien nous pourrons encore trouver une série d’éléments             E 1 , E 2 , ....., E n tels : 1° qu’ils appartiennent tous à C ; 2° que chacun d’eux soit indiscernable du suivant ; E 1 indiscernable de A et E n de B ; 3° et en outre qu’aucun des éléments E ne soit indiscernable d’aucun des éléments de la coupure. Ou bien au contraire dans toutes les séries E 1 , E 2 , ....., E n satisfaisant aux deux premières conditions, il y aura un élément E indiscernable de l’un des éléments de la coupure. Dans le 1 er cas, nous pouvons aller de A à B par un chemin continu sans quitter C et sans rencontrer les coupures ; dans le second cas cela est impossible. Si alors pour deux éléments quelconques A et B du continu C, c’est toujours le premier cas qui se présente, nous dirons que C reste d’un seul tenant malgré les coupures. Ainsi si nous choisissons les coupures d’une certaine manière, d’ailleurs arbitraire, il pourra se faire ou bien que le continu reste d’un seul tenant ou qu’il ne reste pas d’un seul tenant ; dans cette dernière hypothèse nous dirons alors qu’il est divisé par les coupures. On remarquera que toutes ces définitions sont construites en partant uniquement de ce fait très simple, que deux ensembles d’impressions, tantôt peuvent être discernés, tantôt ne peuvent pas l’être. Cela posé, si pour diviser un continu, il suffit de considérer comme coupures un certain nombre d’éléments tous discernables les uns des autres, on dit que ce continu est à une dimension ; si au contraire pour diviser un continu, il est nécessaire de considérer comme coupures un système d’éléments formant eux-mêmes un ou plusieurs continus, nous dirons que ce continu est à plusieurs dimensions. Si pour diviser un continu C, il suffit de coupures formant un ou plusieurs continus à une dimension, nous dirons que C est un continu à deux dimensions ; s’il suffit de coupures, formant un ou plusieurs continus à deux dimensions au plus, nous dirons que C est un continu à trois dimensions ; et ainsi de suite. Pour justifier cette définition, il faut voir si c’est bien ainsi que les géomètres introduisent la notion des trois dimensions au début de leurs ouvrages. Or, que voyons-nous ? Le plus souvent ils commencent par définir les surfaces comme les limites des volumes, ou parties de l’espace, les lignes comme les limites des surfaces, les points comme limites des lignes, et ils affirment que le même processus ne peut être poussé plus loin. C’est bien la même idée ; pour diviser l’espace, il faut des coupures que l’on appelle surfaces ; pour diviser les surfaces il faut des coupures que l’on appelle lignes ; pour diviser les lignes, il faut des coupures que l’on appelle points ; on ne peut aller plus loin et le point ne peut être divisé, le point n’est pas un continu ; alors les lignes, qu’on peut diviser par des coupures qui ne sont pas des continus, seront des continus à une dimension ; les surfaces que l’on peut diviser par des coupures continues à une dimension, seront des continus à deux dimensions, enfin l’espace que l’on peut diviser par des coupures continues à deux dimensions sera un continu à trois dimensions. Ainsi la définition que je viens de donner ne diffère pas essentiellement des définitions habituelles ; j’ai tenu seulement à lui donner une forme applicable non au continu mathématique, mais au continu physique, qui est seul susceptible de représentation et cependant à lui conserver toute sa précision. On voit, d’ailleurs, que cette définition ne s’applique pas seulement à l’espace, que dans tout ce qui tombe sous nos sens, nous retrouvons les caractères du continu physique, ce qui permettrait la même classification ; il serait aisé d’y trouver des exemples de continus de quatre, de cinq dimensions, au sens de la définition précédente ; ces exemples se présentent d’eux-mêmes à l’esprit. J’expliquerais enfin, si j’en avais le temps, que cette science dont je parlais plus haut et à laquelle Riemann a donné le nom d’Analysis Sitûs, nous apprend à faire des distinctions parmi les continus d’un même nombre de dimensions et que la classification de ces continus repose encore sur la considération des coupures. De cette notion est sortie celle du continu mathématique à plusieurs dimensions de la même façon que le continu physique à une dimension avait engendré le continu mathématique à une dimension. La formule             A > C, A = B, B = C qui résumait les données brutes de l’expérience impliquait une contradiction intolérable. Pour s’en affranchir, il a fallu introduire une notion nouvelle en respectant d’ailleurs les caractères essentiels du continu physique à plusieurs dimensions. Le continu mathématique à une dimension comportait une échelle unique dont les échelons en nombre infini correspondaient aux diverses valeurs commensurables ou non d’une même grandeur. Pour avoir le continu mathématique à n dimensions, il suffira de prendre n pareilles échelles dont les échelons correspondront aux diverses valeurs de n grandeurs indépendantes appelées coordonnées. On aura ainsi une image du continu physique à n dimensions, et cette image sera aussi fidèle qu’elle peut l’être du moment qu’on ne veut pas laisser subsister la contradiction dont je parlais plus haut. § 4. — LA NOTION DE POINT Il semble maintenant que la question que nous nous posions au début est résolue. Quand nous disons que l’espace a trois dimensions, dira-t-on, nous voulons dire que l’ensemble des points de l’espace satisfait à la définition que nous venons de donner du continu physique à trois dimensions. Se contenter de cela, ce serait supposer que nous savons ce que c’est que l’ensemble des points de l’espace, ou même qu’un point de l’espace. Or, cela n’est pas aussi simple qu’on pourrait le croire. Tout le monde croit savoir ce que c’est qu’un point, et c’est même parce que nous le savons trop bien que nous croyons n’avoir pas besoin de le définir. Certes on ne peut pas exiger de nous que nous sachions le définir, car en remontant de définition en définition il faut bien qu’il arrive un moment où l’on s’arrête. Mais à quel moment doit-on s’arrêter ? On s’arrêtera d’abord quand on arrivera à un objet qui tombe sous nos sens ou que nous pouvons nous représenter ; la définition deviendra alors inutile, on ne définit pas le mouton à un enfant, on lui dit : voici un mouton. Et alors, nous devons nous demander s’il est possible de se représenter un point de l’espace. Ceux qui répondent oui ne réfléchissent pas qu’ils se représentent en réalité un point blanc fait avec la craie sur un tableau noir ou un point noir fait avec une plume sur un papier blanc, et qu’ils ne peuvent se représenter qu’un objet ou mieux les impressions que cet objet ferait sur leurs sens. Quand ils cherchent à se représenter un point, ils se représentent les impressions que leur feraient éprouver des objets très petits. Il est inutile d’ajouter que deux objets différents, quoique l’un et l’autre très petits, pourront produire des impressions extrêmement différentes, mais je n’insiste pas sur cette difficulté qui exigerait pourtant quelque discussion. Mais ce n’est pas de cela qu’il s’agit ; il ne suffit pas de se représenter un point, il faut se représenter tel point et avoir le moyen de le distinguer d’un autre point. Et en effet, pour que nous puissions appliquer à un continu la règle que j’ai exposée plus haut et par laquelle on peut reconnaître le nombre de ses dimensions, nous devons nous appuyer sur ce fait que deux éléments de ce continu tantôt peuvent et tantôt ne peuvent pas être discernés. Il faut donc que nous sachions dans certains cas nous représenter tel élément et le distinguer d’un autre élément. La question est de savoir si le point que je me représentais il y a une heure, est le même que celui que je me représente maintenant ou si c’est un point différent. En d’autres termes, comment savons-nous si le point occupé par l’objet A à l’instant α est le même que le point occupé par l’objet B à l’instant β, ou mieux encore, qu’est-ce que cela veut dire ? Je suis assis dans ma chambre, un objet est posé sur ma table ; je ne bouge pas pendant une seconde, personne ne touche à l’objet ; je suis tenté de dire que le point A qu’occupait cet objet au début de cette seconde est identique au point B qu’il occupe à la fin ; pas du tout : du point A au point B il y a 30 kilomètres, car l’objet a été entraîné dans le mouvement de la Terre. Nous ne pourrons savoir si un objet, très petit ou non, n’a pas changé de position absolue dans l’espace, et non seulement nous ne pouvons l’affirmer, mais cette affirmation n’a aucun sens et en tout cas ne peut correspondre à aucune représentation. Mais alors nous pouvons nous demander si la position relative d’un objet par rapport à d’autres objets a varié ou non, et d’abord si la position relative de cet objet par rapport à notre corps a varié ; si les impressions que nous cause cet objet n’ont pas changé, nous serons enclins à juger que cette position relative n’a pas changé non plus ; si elles ont changé, nous jugerons que cet objet a changé soit d’état, soit de position relative. Il reste à décider lequel des deux. J’ai expliqué dans Science et Hypothèse comment nous avons été amenés à distinguer les changements de position. J’y reviendrai d’ailleurs plus loin. Nous arrivons donc à savoir si la position relative d’un objet par rapport à notre corps est ou non restée la même. Si maintenant nous voyons que deux objets ont conservé leur position relative par rapport à notre corps, nous concluons que la position relative de ces deux objets l’un par rapport à l’autre n’a pas changé ; mais nous n’arrivons à cette conclusion que par un raisonnement indirect. La seule chose que nous connaissions directement c’est la position relative des objets par rapport à notre corps. A fortiori ce n’est que par un raisonnement indirect que nous croyons savoir (et encore cette croyance est-elle trompeuse) si la position absolue de l’objet a changé. En somme, le système d’axes de coordonnées auxquels nous rapportons naturellement tous les objets extérieurs, c’est un système d’axes invariablement lié à notre corps, et que nous transportons partout avec nous. Il est impossible de se représenter l’espace absolu ; quand je veux me représenter simultanément des objets et moi-même en mouvement dans l’espace absolu, en réalité je me représente moi-même immobile et regardant se mouvoir autour de moi divers objets et un homme qui est extérieur à moi, mais que je conviens d’appeler moi. La difficulté sera-t-elle résolue quand on consentira à tout rapporter à ces axes liés à notre corps ? Savons-nous cette fois ce que c’est qu’un point défini ainsi par sa position relative par rapport à nous. Bien des gens répondront oui et diront qu’ils « localisent » les objets extérieurs. Qu’est-ce à dire ? Localiser un objet, cela veut dire simplement se représenter les mouvements qu’il faudrait faire pour l’atteindre ; je m’explique ; il ne s’agit pas de se représenter les mouvements eux-mêmes dans l’espace, mais uniquement de se représenter les sensations musculaires qui accompagnent ces mouvements et qui ne supposent pas la préexistence de la notion d’espace. Si nous supposons deux objets différents qui viennent successivement occuper la même position relative par rapport à nous, les impressions que nous causeront ces deux objets seront très différentes ; si nous les localisons au même point, c’est simplement parce qu’il faut faire les mêmes mouvements pour les atteindre ; à part cela, on ne voit pas bien ce qu’ils pourraient avoir de commun. Mais, étant donné un objet, on peut concevoir plusieurs séries différentes de mouvements qui permettraient également de l’atteindre. Si alors nous nous représentons un point, en nous représentant la série des sensations musculaires qui accompagneraient les mouvements qui permettraient d’atteindre ce point, on aura plusieurs manières entièrement différentes de se représenter un même point. Si l’on ne veut pas se contenter de cette solution, si on veut faire intervenir par exemple les sensations visuelles à côté des sensations musculaires, on aura une ou deux manières de plus de se représenter ce même point et la difficulté n’aura fait qu’augmenter. De toutes façons, la question suivante se pose : pourquoi jugeons-nous que toutes ces représentations si différentes les unes des autres représentent pourtant un même point ? Autre remarque : je viens de dire que c’est à notre propre corps que nous rapportons naturellement les objets extérieurs ; que nous transportons pour ainsi dire partout avec nous un système d’axes auxquels nous rapportons tous les points de l’espace, et que ce système d’axes est comme invariablement lié à notre corps. On doit observer que rigoureusement l’on ne pourrait parler d’axes invariablement liés au corps que si les diverses parties de ce corps étaient elles-mêmes invariablement liées l’une à l’autre. Comme il n’en est pas ainsi, nous devons, avant de rapporter les objets extérieurs à ces axes fictifs, supposer notre corps ramené à la même attitude. § 5. — LA NOTION DU DÉPLACEMENT J’ai montré dans Science et Hypothèse le rôle prépondérant joué par les mouvements de notre corps dans la genèse de la notion d’espace. Pour un être complètement immobile, il n’y aurait ni espace, ni géométrie ; c’est en vain qu’autour de lui les objets extérieurs se déplaceraient, les variations que ces déplacements feraient subir à ses impressions ne seraient pas attribuées par cet être à des changements de position, mais à de simples changements d’état, cet être n’aurait aucun moyen de distinguer ces deux sortes de changements, et cette distinction, capitale pour nous, n’aurait aucun sens pour lui. Les mouvements que nous imprimons à nos membres ont pour effet de faire varier les impressions produites sur nos sens par les objets extérieurs ; d’autres causes peuvent également les faire varier ; mais nous sommes amenés à distinguer les changements produits par nos propres mouvements et nous les discernons facilement pour deux raisons : 1° parce qu’ils sont volontaires ; 2° parce qu’ils sont accompagnés de sensations musculaires. Ainsi nous répartissons naturellement les changements que peuvent subir nos impressions en deux catégories que j’ai appelées d’un nom peut- être impropre : 1° les changements internes, qui sont volontaires et accompagnés de sensations musculaires ; 2° les changements externes, dont les caractères sont opposés. Nous observons ensuite que parmi les changements externes, il y en a qui peuvent être corrigés grâce à un changement interne qui ramène tout à l’état primitif ; d’autres ne peuvent pas être corrigés de la sorte (c’est ainsi que quand un objet extérieur s’est déplacé, nous pouvons en nous déplaçant nous-mêmes nous replacer par rapport à cet objet dans la même situation relative de façon à rétablir l’ensemble des impressions primitives ; si cet objet ne s’est pas déplacé, mais a changé d’état, cela est impossible). De là une nouvelle distinction, parmi les changements externes : ceux qui peuvent être ainsi corrigés, nous les appelons changements de position ; et les autres, changements d’état. Supposons, par exemple, une sphère dont un hémisphère soit bleu et l’autre rouge ; elle nous présente d’abord l’hémisphère bleu ; puis elle tourne sur elle-même de façon à nous présenter l’hémisphère rouge. Soit maintenant un vase sphérique contenant un liquide bleu qui devient rouge par suite d’une réaction chimique. Dans les deux cas la sensation du rouge a remplacé celle du bleu ; nos sens ont éprouvé les mêmes impressions qui se sont succédé dans le même ordre, et pourtant ces deux changements sont regardés par nous comme très différents ; le premier est un déplacement, le second un changement d’état. Pourquoi ? Parce que dans le premier cas, il me suffit de tourner autour de la sphère pour me placer vis-à-vis de l’hémisphère rouge et rétablir la sensation rouge primitive. Bien plus, si les deux hémisphères, au lieu d’être rouge et bleu, avaient été jaune et vert, comment se serait traduite pour moi la rotation de la sphère ? Tout à l’heure le rouge succédait au bleu, maintenant le vert succède au jaune ; et cependant je dis que les deux sphères ont éprouvé la même rotation, que l’une comme l’autre ont tourné autour de leur axe ; je ne puis pourtant pas dire que le vert soit au jaune comme le rouge est au bleu ; comment alors suis-je conduit à juger que les deux sphères ont subi le même déplacement ? Évidemment, parce que, dans un cas comme dans l’autre, je puis rétablir la sensation primitive en tournant autour de la sphère, en faisant les mêmes mouvements, et je sais que j’ai fait les mêmes mouvements parce que j’ai éprouvé les mêmes sensations musculaires ; pour le savoir je n’ai donc pas besoin de savoir la géométrie d’avance et de me représenter les mouvements de mon corps dans l’espace géométrique. Autre exemple. Un objet s’est déplacé devant mon œil, son image se formait d’abord au centre de la rétine ; elle se forme ensuite au bord ; la sensation ancienne m’était apportée par une fibre nerveuse aboutissant au centre de la rétine ; la sensation nouvelle m’est apportée par une autre fibre nerveuse partant du bord de la rétine ; ces deux sensations sont qualitativement différentes ; et sans cela comment pourrais-je les distinguer ? Pourquoi alors suis-je conduit à juger que ces deux sensations, qualitativement différentes, représentent une même image qui s’est déplacée ? C’est parce que je puis suivre l’objet de l’œil et, par un déplacement de l’œil volontaire et accompagné de sensations musculaires, ramener l’image au centre de la rétine et rétablir la sensation primitive. Je suppose que l’image d’un objet rouge soit allée du centre A au bord B de la rétine, puis que l’image d’un objet bleu aille à son tour du centre A au bord B de la rétine ; je jugerai que ces deux objets ont subi le même déplacement. Pourquoi ? parce que, dans un cas comme dans l’autre, j’aurai pu rétablir la sensation primitive, et que pour cela j’aurai dû exécuter le même mouvement de l’œil, et je saurai que mon œil a exécuté le même mouvement parce que j’ai éprouvé les mêmes sensations musculaires. Si je ne pouvais mouvoir mon œil, aurais-je quelque raison d’admettre que la sensation du rouge au centre de la rétine est à la sensation du rouge au bord de la rétine, comme celle du bleu au centre est à celle du bleu au bord ? Je n’aurais que quatre sensations qualitativement différentes, et si l’on me demandait si elles sont liées par la proportion que je viens d’énoncer, la question me semblerait ridicule, tout comme si l’on me demandait s’il y a une proportion analogue entre une sensation auditive, une sensation tactile et une sensation olfactive. Envisageons maintenant les changements internes, c’est-à-dire ceux qui sont produits par les mouvements volontaires de notre corps et qui sont accompagnés de changements musculaires ; ils donneront lieu aux deux observations suivantes, analogues à celles que nous venons de faire au sujet des changements externes. 1° Je puis supposer que mon corps se soit transporté d’un point à un autre, mais en conservant la même attitude ; toutes les parties de ce corps ont donc conservé ou repris la même situation relative, bien que leur situation absolue dans l’espace ait varié ; je puis supposer également que non seulement la position de mon corps a changé, mais que son attitude n’est plus la même, que par exemple mes bras qui tout à l’heure étaient repliés soient maintenant allongés. Je dois donc distinguer les simples changements de position sans changement d’attitude, et les changements d’attitude. Les uns et les autres m’apparaissent sous forme de sensations musculaires. Comment alors suis- je amené à les distinguer ? C’est que les premiers peuvent servir à corriger un changement externe, et que les autres ne le peuvent pas ou du moins ne peuvent donner qu’une correction imparfaite. C’est là un fait que je vais expliquer, comme je l’expliquerais à quelqu’un qui saurait déjà la géométrie, mais il ne faut pas en conclure qu’il faut déjà savoir la géométrie pour faire cette distinction ; avant de la savoir, je constate le fait (expérimentalement pour ainsi dire) sans pouvoir l’expliquer. Mais pour faire la distinction entre les deux sortes de changement, je n’ai pas besoin d’expliquer le fait, il me suffit de le constater. Quoi qu’il en soit, l’explication est aisée. Supposons qu’un objet extérieur se soit déplacé ; si nous voulons que les diverses parties de notre corps reprennent par rapport à cet objet leur position relative initiale, il faut que ces diverses parties aient repris également leur position relative initiale les unes par rapport aux autres. Seuls les changements internes qui satisferont à cette dernière condition, seront susceptibles de corriger le changement externe produit par le déplacement de cet objet. Si donc la position relative de mon œil par rapport à mon doigt a changé, je pourrai bien ramener l’œil dans sa situation relative initiale par rapport à l’objet et rétablir ainsi les sensations visuelles primitives, mais alors la position relative du doigt par rapport à l’objet aura changé et les sensations tactiles ne seront pas rétablies. 2° Nous constatons également qu’un même changement externe peut être corrigé par deux changements internes correspondant à des sensations musculaires différentes. Ici encore je puis faire cette constatation sans savoir la géométrie : et je n’ai pas besoin d’autre chose, mais je vais donner l’explication du fait en employant le langage géométrique. Pour passer de la position A à la position B je puis prendre plusieurs chemins. Au premier de ces chemins correspondra une série S de sensations musculaires ; à un second chemin, correspondra une autre série S′′ de sensations musculaires qui généralement seront complètement différentes, puisque ce seront d’autres muscles qui seront entrés en jeu. Comment suis-je amené à regarder ces deux séries S et S′′ comme correspondant à un même déplacement AB ? C’est parce que ces deux séries sont susceptibles de corriger un même changement externe. À part cela, elle n’ont rien de commun. Considérons maintenant deux changements externes : α et β qui seront par exemple la rotation d’une sphère mi-partie bleue et rouge, et celle d’une sphère mi-partie jaune et verte ; ces deux changements n’ont rien de commun puisque l’un se traduit pour nous par le passage du bleu au rouge et l’autre par le passage du jaune au vert. Envisageons d’autre part deux séries de changements internes S et S′′ ; ils n’auront non plus rien de commun. Et cependant je dis que α et β correspondent au même déplacement, et que S et S′′ correspondent aussi au même déplacement. Pourquoi ? Tout simplement parce que S peut corriger β aussi bien que α et parce que α peut être corrigé par S′′ aussi bien que par S. Et alors une question se pose : si j’ai constaté que S corrige α et β et que S′′ corrige α, suis-je certain que S′′ corrige également β ? L’expérience peut seule nous apprendre si cette loi se vérifie. Si elle ne se vérifiait pas, au moins approximativement, il n’y aurait pas de géométrie, il n’y aurait pas d’espace, parce que nous n’aurions plus intérêt à classer les changements externes et internes comme je viens de le faire, et, par exemple à distinguer les changements d’état des changements de position. Il est intéressant de voir quel a été dans tout cela le rôle de l’expérience. Elle m’a montré qu’une certaine loi se vérifie approximativement. Elle ne m’a pas appris comment est l’espace et qu’il satisfait à la condition dont il s’agit. Je savais en effet, avant toute expérience, que l’espace satisfera à cette condition ou qu’il ne sera pas, je ne puis pas dire non plus que l’expérience m’a appris que la géométrie est possible ; je vois bien que la géométrie est possible puisqu’elle n’implique pas contradiction ; l’expérience m’a appris seulement que la géométrie est utile. § 6. — L’ESPACE VISUEL Bien que les impressions motrices aient, comme je viens de l’expliquer, eu une influence tout à fait prépondérante dans la genèse de la notion d’espace qui n’aurait jamais pris naissance sans elles, il ne sera pas sans intérêt d’examiner aussi le rôle des impressions visuelles et de rechercher combien « l’espace visuel » a de dimensions, et d’appliquer pour cela à ces impressions la définition du § 3. Une première difficulté se présente ; considérons une sensation colorée rouge affectant un certain point de la rétine ; et d’autre part une sensation colorée bleue affectant le même point de la rétine. Il faut bien que nous ayons quelque moyen de reconnaître que ces deux sensations, qualitativement différentes, ont quelque chose de commun. Or, d’après les considérations exposées dans le paragraphe précédent, nous n’avons pu le reconnaître que par les mouvements de l’œil et les observations auxquelles ils ont donné lieu. Si l’œil était immobile, ou si nous n’avions pas conscience de ses mouvements, nous n’aurions pu reconnaître que ces deux sensations de qualité différente avaient quelque chose de commun ; nous n’aurions pu en dégager ce qui leur donne un caractère géométrique. Les sensations visuelles, sans les sensations musculaires, n’auraient donc rien de géométrique, de sorte qu’on peut dire qu’il n’y a pas d’espace visuel pur. Pour lever cette difficulté, n’envisageons que des sensations de même nature, des sensations rouges, par exemple, ne différant les unes des autres que par le point de la rétine qu’elles affectent. Il est clair que je n’ai aucune raison pour faire un choix aussi arbitraire parmi toutes les sensations visuelles possibles, pour réunir dans une même classe toutes les sensations de même couleur, quel que soit le point de la rétine affecté. Je n’y aurais jamais songé, si je n’avais pas appris d’avance, par le moyen que nous venons de voir, à distinguer les changements d’état des changements de position, c’est-à-dire si mon œil était immobile. Deux sensations de même couleur affectant deux parties différentes de la rétine m’apparaîtraient comme qualitativement distinctes, au même titre que deux sensations de couleur différente. En me restreignant aux sensations rouges, je m’impose donc une limitation artificielle et je néglige systématiquement tout un côté de la question ; mais ce n’est que par cet artifice que je puis analyser l’espace visuel sans y mêler de sensation motrice. Imaginons une ligne tracée sur la rétine, et divisant en deux sa surface ; et mettons à part les sensations rouges affectant un point de cette ligne, ou celles qui en différent trop peu pour en pouvoir être discernées. L’ensemble de ces sensations formera une sorte de coupure que j’appellerai C, et il est clair que cette coupure suffit pour diviser l’ensemble des sensations rouges possibles, et que si je prends deux sensations rouges affectant deux points situés de part et d’autre de la ligne, je ne pourrai passer de l’une de ces sensations à l’autre d’une manière continue sans passer à un certain moment par une sensation appartenant à la coupure. Si donc la coupure a n dimensions, l’ensemble total de mes sensations rouges, ou si l’on veut, l’espace visuel total en aura n + 1. Maintenant, je distingue les sensations rouges affectant un point de la coupure C. L’ensemble de ces sensations formera une nouvelle coupure C′. Il est clair que celle-ci divisera la coupure C, en donnant toujours au mot diviser le même sens. Si donc la coupure C′ a n dimensions, la coupure C en aura n + 1 et l’espace visuel total n + 2. Si toutes les sensations rouges affectant un même point de la rétine étaient regardées comme identiques, la coupure C se réduisant à un élément unique aurait 0 dimension, et l’espace visuel en aurait 2. Et pourtant le plus souvent on dit que l’œil nous donne le sentiment d’une troisième dimension, et nous permet dans une certaine mesure de reconnaître la distance des objets. Quand on cherche à analyser ce sentiment, on constate qu’il se réduit soit à la conscience de la convergence des yeux, soit à celle de l’effort d’accommodation que fait le muscle ciliaire pour mettre l’image au point. Deux sensations rouges affectant le même point de la rétine ne seront donc regardées comme identiques que si elles sont accompagnées d’une même sensation de convergence et aussi d’une même sensation d’effort d’accommodation ou du moins de sensation de convergence et d’accommodation assez peu différentes pour ne pouvoir être discernées. À ce compte, la coupure C′ est elle-même un continu et la coupure C a plus d’une dimension. Mais il arrive justement que l’expérience nous apprend que, quand deux sensations visuelles sont accompagnées d’une même sensation de convergence, elles sont également accompagnées d’une même sensation d’accommodation. Si alors nous formons une nouvelle coupure C′′ avec toutes celles des sensations de la coupure C′ qui sont accompagnées d’une certaine sensation de convergence, d’après la loi précédente, elles seront toutes indiscernables et pourront être regardées comme identiques ; donc C′′ ne sera pas un continu et aura 0 dimension ; et comme C′′ divise C′ il en résultera que C′ en a une, C deux et que l’espace visuel total en a trois. Mais en serait-il de même si l’expérience nous avait appris le contraire et si une certaine sensation de convergence n’était pas toujours accompagnée d’une même sensation d’accommodation ? Dans ce cas deux sensations affectant le même point de la rétine et accompagnées d’un même sentiment de convergence, deux sensations qui par conséquent appartiendraient l’une et l’autre à la coupure C′′ pourraient néanmoins être discernées parce qu’elles seraient accompagnées de deux sensations d’accommodation différentes. Donc C′′ serait à son tour continu, et aurait une dimension (pour le moins) ; alors C′ en aurait deux, C trois et l’espace visuel total en aurait quatre. Va-t-on dire alors que c’est l’expérience qui nous apprend que l’espace a trois dimensions, puisque c’est en partant d’une loi expérimentale que nous sommes arrivés à lui en attribuer trois ? Mais nous n’avons fait là pour ainsi dire qu’une expérience de physiologie ; et même comme il suffirait d’adapter sur les yeux des verres de construction convenable pour faire cesser l’accord entre les sentiments de convergence et d’accommodation, allons-nous dire qu’il suffit de mettre des bésicles pour que l’espace ait quatre dimensions et que l’opticien qui les a construites a donné une dimension de plus à l’espace ? Évidemment non, tout ce que nous pouvons dire c’est que l’expérience nous a appris qu’il est commode d’attribuer à l’espace trois dimensions. Mais l’espace visuel n’est qu’une partie de l’espace, et dans la notion même de cet espace il y a quelque chose d’artificiel, comme je l’ai expliqué au début. Le véritable espace est l’espace moteur et c’est celui que nous examinerons dans le chapitre suivant.     CHAPITRE IV L’Espace et ses Trois Dimensions § 1. — LE GROUPE DES DÉPLACEMENTS Résumons brièvement les résultats obtenus. Nous nous proposions de rechercher ce qu’on veut dire quand on dit que l’espace a trois dimensions et nous nous sommes demandé d’abord ce que c’est qu’un continu physique et quand on peut dire qu’il a n dimensions. Si nous considérons divers systèmes d’impressions et que nous les comparions entre eux, nous reconnaissons souvent que deux de ces systèmes d’impressions ne peuvent être discernés (ce que l’on exprime d’ordinaire en disant qu’ils sont trop voisins l’un de l’autre, et que nos sens sont trop grossiers pour que nous puissions les distinguer) et nous constatons de plus que deux de ces systèmes peuvent quelquefois être discernés l’un de l’autre, bien qu’étant indiscernables d’un même troisième. S’il en est ainsi, on dit que l’ensemble de ces systèmes d’impressions forme un continu physique C. Et chacun de ces systèmes s’appellera un élément du continu C. Combien ce continu a-t-il de dimensions ? Prenons d’abord deux éléments A et B de C, et supposons qu’il existe une suite Σ d’éléments, appartenant tous au continu C, de telle façon que A et B soient les deux termes extrêmes de cette suite et que chaque terme de la suite soit indiscernable du précédent. Si l’on peut trouver une pareille suite Σ, nous dirons que A et B sont reliés entre eux ; et si deux éléments quelconques de C sont reliés entre eux, nous dirons que C est d’un seul tenant. Choisissons maintenant sur le continu C un certain nombre d’éléments d’une manière tout à fait arbitraire. L’ensemble de ces éléments s’appellera une coupure. Parmi les suites Σ qui relient A à B, nous distinguerons celles dont un élément est indiscernable d’un des éléments de la coupure (nous dirons que ce sont celles qui coupent la coupure) et celles dont tous les éléments sont discernables de tous ceux de la coupure. Si toutes les suites Σ qui relient A à B coupent la coupure, nous dirons que A et B sont séparés par la coupure, et que la coupure divise C. Si on ne peut pas trouver sur C deux éléments qui soient séparés par la coupure, nous dirons que la coupure ne divise pas C. Ces définitions posées, si le continu C peut être divisé par des coupures qui ne forment pas elles-mêmes un continu, ce continu C n’a qu’une dimension ; dans le cas contraire il en a plusieurs. Si pour diviser C, il suffit d’une coupure formant un continu à 1 dimension, C aura 2 dimensions, s’il suffit d’une coupure formant un continu à 2 dimensions, C aura 3 dimensions, etc. Grâce à ces définitions, on saura toujours reconnaître combien un continu physique quelconque a de dimensions. Il ne reste plus qu’à trouver un continu physique, qui soit pour ainsi dire équivalent à l’espace, de telle façon qu’à tout point de l’espace corresponde un élément de ce continu, et qu’à des points de l’espace très voisins les uns des autres, correspondent des éléments indiscernables. L’espace aura alors autant de dimensions que ce continu. L’intermédiaire de ce continu physique, susceptible de représentation, est indispensable ; parce que nous ne pouvons nous représenter l’espace et cela pour une foule de raisons. L’espace est un continu mathématique, il est infini, et nous ne pouvons nous représenter que des continus physiques et des objets finis. Les divers éléments de l’espace, que nous appelons points, sont tous semblables entre eux, et, pour appliquer notre définition, il faut que nous sachions discerner les éléments les uns des autres, au moins s’ils ne sont pas trop voisins. Enfin l’espace absolu est un non-sens, et il nous faut commencer par le rapporter à un système d’axes invariablement liés à notre corps (que nous devons toujours supposer ramené à une même attitude). J’ai cherché ensuite à former avec nos sensations visuelles un continu physique équivalent à l’espace ; cela est facile sans doute et cet exemple est particulièrement approprié à la discussion du nombre des dimensions ; cette discussion nous a permis de voir dans quelle mesure il est permis de dire que « l’espace visuel » a trois dimensions. Seulement cette solution est incomplète et artificielle, j’ai expliqué pourquoi, et ce n’est pas sur l’espace visuel, mais sur l’espace moteur qu’il faut faire porter notre effort. J’ai rappelé ensuite quelle est l’origine de la distinction que nous faisons entre les changements de position et les changements d’état. Parmi les changements qui se produisent dans nos impressions, nous distinguons d’abord les changements internes volontaires et accompagnés de sensations musculaires et les changements externes, dont les caractères sont opposés. Nous constatons qu’il peut arriver qu’un changement externe soit corrigé par un changement interne qui rétablit les sensations primitives. Les changements externes susceptibles d’être corrigés par un changement interne s’appellent changements de position, ceux qui n’en sont pas susceptibles s’appellent changements d’état. Les changements internes susceptibles de corriger un changement externe s’appellent déplacements du corps en bloc ; les autres s’appellent changement d’attitude. Soient maintenant α et β deux changements externes, α′ et β′ deux changements internes. Supposons que α puisse être corrigé soit par α′, soit par β′ ; et que α′ puisse corriger soit α, soit β ; l’expérience nous apprend alors que β′ peut également corriger β. Dans ce cas nous dirons que α et β correspondent au même déplacement et de même que α′ et β′ correspondent au même déplacement. Cela posé, nous pouvons imaginer un continu physique que nous appellerons le continu ou le groupe des déplacements et que nous définirons de la façon suivante. Les éléments de ce continu seront les changements internes susceptibles de corriger un changement externe. Deux de ces changements internes α′ et β′ seront regardés comme indiscernables : 1° s’ils le sont naturellement, c’est-à-dire s’ils sont trop voisins l’un de l’autre ; 2° si α′ est susceptible de corriger le même changement externe qu’un troisième changement interne naturellement indiscernable de β′. Dans ce second cas, ils seront pour ainsi dire indiscernables par convention, je veux dire en convenant de faire abstraction des circonstances qui pourraient les faire distinguer. Notre continu est maintenant entièrement défini, puisque nous connaissons ses éléments et que nous avons précisé dans quelles conditions ils peuvent être regardés comme indiscernables. Nous avons ainsi tout ce qu’il faut pour appliquer notre définition et déterminer combien ce continu a de dimensions. Nous reconnaîtrons qu’il en a six. Le continu des déplacements n’est donc pas équivalent à l’espace, puisque le nombre des dimensions n’est pas le même, il est seulement apparenté à l’espace. Comment savons-nous maintenant que ce continu des déplacements a six dimensions ; nous le savons par expérience. Il serait aisé de décrire les expériences par lesquelles nous pourrions arriver à ce résultat. On verrait qu’on peut dans ce continu pratiquer des coupures qui le divisent et qui sont des continus ; qu’on peut diviser ces coupures elles-mêmes par d’autres coupures du second ordre qui sont encore des continus, et qu’on ne serait arrêté qu’après les coupures du sixième ordre qui ne seraient plus des continus. D’après nos définitions cela voudrait dire que le groupe des déplacements a six dimensions. Cela serait aisé, ai-je dit, mais cela serait assez long ; et ne serait-ce pas un peu superficiel ? Ce groupe des déplacements, nous l’avons vu, est apparenté à l’espace et on pourrait en déduire l’espace, mais il n’est pas équivalent à l’espace puisqu’il n’a pas le même nombre de dimensions ; et quand nous aurons montré comment la notion de ce continu peut se former et comment on peut en déduire celle de l’espace, on pourrait toujours se demander pourquoi l’espace à trois dimensions nous est beaucoup plus familier que ce continu à six dimensions, et douter par conséquent que ce soit par ce détour, que s’est formée dans l’esprit humain la notion d’espace. § 2. — IDENTITÉ DE DEUX POINTS Qu’est-ce qu’un point ? Comment saurons-nous si deux points de l’espace sont identiques ou différents ? Ou, en d’autres termes ; quand je dis : l’objet A occupait à l’instant α le point qu’occupe l’objet B à l’instant β, qu’est-ce que cela veut dire ? Tel est le problème que nous nous sommes posé au chapitre précédent, § 4. Comme je l’ai expliqué, il ne s’agit pas de comparer les positions des objets A et B dans l’espace absolu ; la question n’aurait alors manifestement aucun sens ; il s’agit de comparer les positions de ces deux objets par rapport à des axes invariablement liés à mon corps, en supposant toujours ce corps ramené à la même attitude. Je suppose qu’entre les instants α et β, je n’aie bougé ni mon corps, ni mon œil, ce dont je suis averti par mon sens musculaire. Je n’ai remué non plus ni ma tête, ni mon bras, ni ma main. Je constate qu’à l’instant α des impressions que j’attribuais à l’objet A m’étaient transmises les unes par une des fibres de mon nerf optique, les autres par un des nerfs sensitifs tactiles de mon doigt ; je constate qu’à l’instant β, d’autres impressions que j’attribue à l’objet B me sont transmises, les unes par cette même fibre du nerf optique, les autres par ce même nerf tactile. Il est nécessaire ici de m’arrêter pour une explication ; comment suis-je averti que cette impression que j’attribue à A, et celle que j’attribue à B et qui sont qualitativement différentes me sont transmises par le même nerf ? Doit-on supposer, pour prendre par exemple les sensations visuelles, que A produit deux sensations simultanées, une sensation purement lumineuse a et une sensation colorée a′, que B produit de même simultanément une sensation lumineuse b et une sensation colorée b′, que si ces diverses sensations me sont transmises par une même fibre rétinienne, a est identique à b, mais qu’en général les sensations colorées a′ et b′ produites par des corps différents sont différentes. Dans ce cas ce serait l’identité de la sensation a qui accompagne a′ avec la sensation b qui accompagne b′, ce serait cette identité, dis-je, qui nous avertirait que toutes ces sensations me sont transmises par la même fibre. Quoi qu’il en soit de cette hypothèse, et bien que je sois porté à en préférer d’autres notablement plus compliquées, il est certain que nous sommes avertis de quelque façon qu’il y a quelque chose de commun entre ces sensations a + a′ et b + b′, sans quoi nous n’aurions aucun moyen de reconnaître que l’objet B a pris la place de l’objet A. Je n’insiste donc pas davantage et je rappelle l’hypothèse que je viens de faire : je suppose que j’aie constaté que les impressions que j’attribue à B me sont transmises à l’instant β par ces mêmes fibres tant optiques que tactiles qui, à l’instant α, m’avaient transmis les impressions que j’attribuais à A. S’il en est ainsi, nous n’hésiterons pas à déclarer que le point occupé par B à l’instant β est identique au point occupé par A à l’instant α. Je viens d’énoncer deux conditions pour que ces deux points soient identiques ; l’une est relative à la vue, l’autre au toucher. Considérons-les séparément. La première est nécessaire, mais n’est pas suffisante. La seconde est à la fois nécessaire et suffisante. Quelqu’un qui saurait la géométrie, l’expliquerait aisément de la manière suivante : Soit O le point de la rétine où se forme à l’instant α l’image du corps A ; soit M le point de l’espace occupé à l’instant α par ce corps A ; soit M′ le point de l’espace occupé à l’instant β par le corps B. Pour que ce corps B forme son image en O, il n’est pas nécessaire que les points M et M′ coïncident : comme la vue s’exerce à distance, il suffit que les trois points O M M′ soient en ligne droite. Cette condition que les deux objets forment leur image en O est donc nécessaire, mais non suffisante pour que les points M et M′ coïncident. Soit maintenant P le point occupé par mon doigt et où il reste puisqu’il ne bouge pas. Comme le toucher ne s’exerce pas à distance, si le corps A touche mon doigt à l’instant α, c’est que M et P coïncident ; si B touche mon doigt à l’instant β, c’est que M′ et P coïncident. Donc M et M′ coïncident. Donc cette condition que si A touche mon doigt à l’instant α, B le touche à l’instant β, est à la fois nécessaire et suffisante pour que M et M′ coïncident. Mais nous qui ne savons pas encore la géométrie, nous ne pouvons raisonner comme cela ; tout ce que nous pouvons faire, c’est de constater expérimentalement que la première condition relative à la vue peut être remplie sans que le soit la seconde, qui est relative au toucher, mais que la seconde ne peut pas être remplie sans que la première le soit. Supposons que l’expérience nous ait appris le contraire. Cela se pourrait, et cette hypothèse n’a rien d’absurde. Supposons donc que nous ayons constaté expérimentalement que la condition relative au toucher peut être remplie sans que celle de la vue le soit et que celle de la vue au contraire ne peut pas l’être sans que celle du toucher le soit. Il est clair que, s’il en était ainsi, nous conclurions que c’est le toucher qui peut s’exercer à distance, et que la vue ne s’exerce pas à distance. Mais ce n’est pas tout ; jusqu’ici j’ai supposé que pour déterminer la place d’un objet, je faisais usage seulement de mon œil et d’un seul doigt ; mais j’aurais tout aussi bien pu employer d’autres moyens, par exemple tous mes autres doigts. Je suppose que mon premier doigt reçoive à l’instant α une impression tactile que j’attribue à l’objet A. Je fais une série de mouvements, correspondant à une série S de sensations musculaires. À la suite de ces mouvements, à l’instant α, mon second doigt reçoit une impression tactile que j’attribue également à A. Ensuite, à l’instant β, sans que j’aie bougé, ce dont m’avertit mon sens musculaire, ce même second doigt me transmet de nouveau une impression tactile que j’attribue cette fois à l’objet B ; je fais ensuite une série de mouvements correspondant à une série S′ de sensations musculaires. Je sais que cette série S′ est inverse de la série S et correspond à des mouvements contraires. Comment le sais-je, c’est parce que des expériences antérieures multiples m’ont souvent montré que si je faisais successivement les deux séries de mouvements correspondant à S et à S′, les impressions primitives se rétablissaient, c’est-à-dire que les deux séries se compensaient mutuellement. Cela posé, dois-je m’attendre à ce qu’à l’instant β′, quand la seconde série de mouvements sera terminée, mon premier doigt éprouve une impression tactile attribuable à l’objet B ? Pour répondre à cette question, ceux qui sauraient déjà la géométrie raisonneraient comme il suit. Il y a des chances pour que l’objet A n’ait pas bougé entre les instants α et α′, ni l’objet B entre les instants β et β′ ; admettons-le. À l’instant α, l’objet A occupait un certain point M de l’espace. Or à cet instant, il touchait mon premier doigt, et comme le toucher ne s’exerce pas à distance, mon premier doigt était également au point M. J’ai fait ensuite la série S de mouvements et à la fin de cette série, à l’instant α′, j’ai constaté que l’objet A touchait mon second doigt. J’en conclus que ce second doigt se trouvait alors en M, c’est-à-dire que les mouvements S avaient pour effet d’amener le second doigt à la place du premier. À l’instant β, l’objet B est venu au contact de mon second doigt : comme je n’ai pas bougé, ce second doigt est resté en M ; donc l’objet B est venu en M ; par hypothèse il ne bouge pas jusqu’à l’instant β′. Mais entre les instants β et β′ j’ai fait les mouvements S′ ; comme ces mouvements sont inverses des mouvements S, ils doivent avoir pour effet d’amener le premier doigt à la place du second. À l’instant β′, ce premier doigt sera donc en M ; et comme l’objet B est également en M cet objet B touchera mon premier doigt. À la question posée, on doit donc répondre oui. Pour nous, qui ne savons pas encore la géométrie, nous ne pouvons pas raisonner de la sorte, mais nous constatons que cette prévision se réalise d’ordinaire ; et nous pouvons toujours expliquer les exceptions en disant que l’objet A a bougé entre les instants α et α′, ou l’objet B entre les instants β et β′. Mais l’expérience n’aurait-elle pu donner un résultat contraire ; ce résultat contraire aurait-il été absurde en soi ? Évidemment non. Qu’aurions-nous fait alors si l’expérience avait donné ce résultat contraire ? Toute géométrie serait-elle ainsi devenue impossible ? pas le moins du monde : nous nous serions bornés à conclure que le toucher peut s’exercer à distance. Quand je dis, le toucher ne s’exerce pas à distance, mais la vue s’exerce à distance, cette assertion n’a qu’un sens qui est le suivant. Pour reconnaître si B occupe à l’instant β, le point occupé par A à l’instant α, je puis me servir d’une foule de critères différents ; dans l’un intervient mon œil, dans l’autre mon premier doigt, dans l’autre mon second doigt, etc. Eh bien, il suffit que le critère relatif à l’un de mes doigts soit satisfait pour que tous les autres le soient, mais il ne suffit pas que le critère relatif à l’œil le soit. Voilà le sens de mon assertion, je me borne à affirmer un fait expérimental qui se vérifie d’ordinaire. Nous avons analysé à la fin du chapitre précédent l’espace visuel ; nous avons vu que pour engendrer cet espace, il faut faire intervenir les sensations rétiniennes, la sensation de convergence, et la sensation d’accommodation ; que si ces deux dernières n’étaient pas toujours d’accord, l’espace visuel aurait quatre dimensions au lieu de trois ; et d’autre part que si l’on ne faisait intervenir que les sensations rétiniennes, on obtiendrait « l’espace visuel simple » qui n’aurait que deux dimensions. D’un autre côté, envisageons l’espace tactile, en nous bornant aux sensations d’un seul doigt, c’est-à-dire en somme l’ensemble des positions que peut occuper ce doigt. Cet espace tactile que nous analyserons dans le paragraphe suivant et sur lequel je demanderai en conséquence la permission de ne pas m’expliquer davantage pour le moment, cet espace tactile, dis-je, a trois dimensions. Pourquoi l’espace proprement dit a-t-il autant de dimensions que l’espace tactile et en a-t-il plus que l’espace visuel simple ? C’est parce que le toucher ne s’exerce pas à distance, tandis que la vue s’exerce à distance. Ces deux assertions n’ont qu’un seul et même sens et nous venons de voir quel était ce sens. Je reviens maintenant sur un point sur lequel j’avais glissé rapidement pour ne pas interrompre la discussion. Comment savons-nous que les impressions faites sur notre rétine par A à l’instant α et par B à l’instant β nous sont transmises par une même fibre rétinienne, bien que ces impressions soient qualitativement différentes ? J’ai émis une hypothèse simple, mais en ajoutant que d’autres hypothèses, notablement plus compliquées, me paraissaient plus probablement exactes. Voici quelles sont ces hypothèses, dont j’ai déjà dit un mot. Comment savons-nous que les impressions produites par l’objet rouge A à l’instant α, et par l’objet bleu B à l’instant β, si ces deux objets ont formé leur image au même point de la rétine, comment savons-nous, dis-je, que ces impressions ont quelque chose de commun ? On peut rejeter l’hypothèse simple que j’avais faite plus haut et admettre que ces deux impressions, qualitativement différentes, me sont transmises par deux fibres nerveuses différentes quoique contiguës. Quel moyen ai-je alors de savoir que ces fibres sont contiguës ? Il est probable que nous n’en aurions aucun si l’œil était immobile. Ce sont les mouvements de l’œil qui nous ont appris qu’il y a la même relation entre la sensation de bleu au point A et la sensation de bleu au point B de la rétine qu’entre la sensation de rouge au point A et la sensation de rouge au point B. Ils nous ont montré en effet que les mêmes mouvements, correspondant aux mêmes sensations musculaires, nous font passer de la première à la deuxième, ou de la troisième à la quatrième. Je n’insiste pas sur ces considérations qui se rattachent comme on le voit à la question des signes locaux soulevée par Lotze. § 3. — L’ESPACE TACTILE Je sais ainsi reconnaître l’identité de deux points, le point occupé par A à l’instant α et le point occupé par B à l’instant β, mais à une condition, c’est que je n’aie pas bougé entre les instants α et β. Cela ne suffit pas pour notre objet. Supposons donc que j’aie remué d’une manière quelconque dans l’intervalle de ces deux instants, comment saurai-je si le point occupé par A à l’instant α est identique au point occupé par B à l’instant β ? Je suppose qu’à l’instant α, l’objet A était au contact de mon premier doigt et que de même, à l’instant β, l’objet B touche ce premier doigt ; mais en même temps, mon sens musculaire m’a averti que dans l’intervalle mon corps a bougé. J’ai envisagé plus haut deux séries de sensations musculaires S et S′ et j’ai dit qu’il arrive quelquefois qu’on est conduit à envisager deux pareilles séries S et S′ comme inverses l’une de l’autre parce que nous avons souvent observé que quand ces deux séries se succèdent nos impressions primitives sont rétablies. Si alors mon sens musculaire m’avertit que j’ai bougé entre les deux instants α et β, mais de façon à ressentir successivement les deux séries de sensations musculaires S et S′ que je considère comme inverses ; je conclurai encore, tout comme si je n’avais pas bougé, que les points occupés par A à l’instant α et par B à l’instant β sont identiques, si je constate que mon premier doigt touche A à l’instant α et B à l’instant β. Cette solution n’est pas encore complètement satisfaisante comme on va le voir. Voyons en effet combien de dimensions elle nous ferait attribuer à l’espace. Je veux comparer les deux points occupés par A et B aux instants α et β, ou (ce qui revient au même puisque je suppose que mon doigt touche A à l’instant α et B à l’instant β) je veux comparer les deux points occupés par mon doigt aux deux instants α et β. Le seul moyen dont je dispose pour cette comparaison est la série Σ des sensations musculaires qui ont accompagné les mouvements de mon corps entre ces deux instants. Les diverses séries Σ imaginables forment évidemment un continu physique dont le nombre de dimensions est très grand. Convenons, comme je l’ai fait, de ne pas considérer comme distinctes les deux séries Σ et Σ + S + S′ lorsque les deux séries S et S′ seront inverses l’une de l’autre au sens donné plus haut à ce mot ; malgré cette convention, l’ensemble des séries Σ distinctes formera encore un continu physique et le nombre des dimensions sera moindre mais encore très grand. À chacune de ces séries Σ correspond un point de l’espace ; à deux séries Σ et Σ′ correspondront ainsi deux points M et M′. Les moyens dont nous disposons jusqu’ici nous permettent de reconnaître que M et M′ ne sont pas distincts dans deux cas : 1° si Σ est identique à Σ′ ; 2° si Σ′ = Σ + S + S′, S et S′ étant inverses l’une de l’autre. Si, dans tous les autres cas, nous regardions M et M′ comme distincts, l’ensemble des points aurait autant de dimensions que l’ensemble des séries Σ distinctes, c’est-à-dire beaucoup plus de 3. Pour ceux qui savent déjà la géométrie, il serait aisé de le leur faire comprendre en raisonnant comme il suit. Parmi les séries de sensations musculaires imaginables, il y en a qui correspondent à des séries de mouvements où le doigt ne bouge pas. Je dis que si l’on ne considère pas comme distinctes les séries Σ et Σ + σ où la série σ correspond à des mouvements où le doigt ne bouge pas, l’ensemble des séries constituera un continu à trois dimensions, mais que si on regarde deux séries Σ et Σ′ comme distinctes à moins que Σ′ = Σ + S + S′, S et S′ étant inverses, l’ensemble des séries constituera un continu à plus de trois dimensions. Soit en effet dans l’espace une surface A, sur cette surface une ligne B, sur cette ligne un point M ; soit C 0 l’ensemble de toutes les séries Σ, soit C 1 l’ensemble de toutes les séries Σ telles qu’à la fin des mouvements correspondants le doigt se trouve sur la surface A et de même soient C 2 ou C 3 l’ensemble des séries Σ telles qu’à la fin le doigt se trouve sur B, ou en M. Il est clair d’abord que C 1 constituera une coupure qui divisera C 0 , que C 2 sera une coupure qui divisera C 1 et C 3 une coupure qui divisera C 2 . Il résulte de là, d’après nos définitions, que si C 3 est un continu à n dimensions, C 0 sera un continu physique à n + 3 dimensions. Soient donc Σ et Σ′ = Σ + σ deux séries faisant partie de C 3  ; pour toutes deux à la fin des mouvements, le doigt se trouve en M ; il en résulte qu’au commencement et à la fin de la série σ, le doigt est au même point M. Cette série σ est donc une de celles qui correspondent à des mouvements où le doigt ne bouge pas. Si l’on ne regarde pas Σ et Σ + σ comme distinctes, toutes les séries de C 3 se confondront en une seule ; donc C 3 aura 0 dimension et C 0 , comme je voulais le démontrer en aura 3. Si au contraire je ne regarde pas Σ et Σ + σ comme confondues (à moins que σ = S + S′, S et S′ étant inverses) il est clair que C 3 contiendra un grand nombre de séries de sensations distinctes ; car sans que le doigt bouge, le corps peut prendre une foule d’attitudes différentes. Alors C 3 formera un continu et C 0 aura plus de trois dimensions et c’est encore ce que je voulais démontrer. Nous qui ne savons pas encore la géométrie, nous ne pouvons pas raisonner de la sorte ; nous ne pouvons que constater. Mais alors une question se pose ; comment, avant de savoir la géométrie, avons-nous été amenés à distinguer des autres ces séries σ où le doigt ne bouge pas ; ce n’est en effet qu’après avoir fait cette distinction que nous pourrons être conduits à regarder Σ et Σ + σ comme identiques, et c’est à cette condition seulement, comme nous venons de le voir, que nous pouvons arriver à l’espace à trois dimensions. Nous sommes amenés à distinguer les séries σ, parce qu’il arrive souvent que quand nous avons exécuté les mouvements qui correspondent à ces séries σ de sensations musculaires, les sensations tactiles qui nous sont transmises par le nerf du doigt que nous avons appelé le premier doigt, que ces sensations tactiles, dis-je, persistent et ne sont pas altérées par ces mouvements. Cela, c’est l’expérience qui nous l’apprend et elle seule qui pouvait nous l’apprendre. Si nous avions distingué les séries de sensations musculaires S + S′ formées par la réunion de deux séries inverses ; c’est parce qu’elles conservaient l’ensemble de nos impressions, si maintenant nous distinguons les séries σ, c’est parce qu’elles conservent certaines de nos impressions. (Quand je dis qu’une série de sensations musculaires S « conserve » une de nos impressions A, je veux dire que nous constatons que si nous éprouvons l’impression A, puis les sensations musculaires S, nous éprouverons encore l’impression A après ces sensations S.) J’ai dit plus haut qu’il arrive souvent que les séries σ n’altèrent pas les impressions tactiles éprouvées par notre premier doigt ; j’ai dit souvent, je n’ai pas dit toujours ; c’est ce que nous exprimons dans notre langage habituel en disant que l’impression tactile ne serait pas altérée si le doigt n’a pas bougé, à la condition que l’objet A qui était au contact de ce doigt n’ait pas bougé non plus. Avant de savoir la géométrie, nous ne pouvons pas donner cette explication ; tout ce que nous pouvons faire, c’est de constater que l’impression persiste souvent, mais pas toujours. Mais il suffit qu’elle persiste souvent pour que les séries σ nous apparaissent comme remarquables, pour que nous soyons amenés à ranger dans une même classe les séries Σ et Σ + σ, et de là à ne pas les regarder comme distinctes. Dans ces conditions nous avons vu qu’elles engendreront un continu physique à trois dimensions. Voilà donc un espace à trois dimensions engendré par mon premier doigt. Chacun de mes doigts en engendrera un semblable. Comment sommes-nous conduits à les considérer comme identiques à l’espace visuel, comme identiques à l’espace géométrique, c’est ce qui reste à examiner. Mais avant d’aller plus loin, faisons une réflexion ; d’après ce qui précède, nous ne connaissons les points de l’espace ou plus généralement la situation finale de notre corps, que par les séries de sensations musculaires nous révélant les mouvements qui nous ont fait passer d’une certaine situation initiale à cette situation finale. Mais il est clair que cette situation finale dépendra d’une part de ces mouvements et d’autre part de la situation initiale d’où nous sommes partis. Or ces mouvements nous sont révélés par nos sensations musculaires ; mais rien ne nous fait connaître la situation initiale ; rien ne peut nous la faire distinguer de toutes les autres situations possibles. Voilà qui met bien en évidence la relativité essentielle de l’espace. § 4. — IDENTITÉ DES DIVERS ESPACES Nous sommes donc amenés à comparer les deux continus C et C′ engendrés par exemple, l’un par mon premier doigt D, l’autre par mon second doigt D′. Ces deux continus physiques ont l’un et l’autre trois dimensions. À chaque élément du continu C, ou si l’on aime mieux s’exprimer ainsi, à chaque point du premier espace tactile, correspond une série de sensations musculaires Σ qui me font passer d’une certaine situation initiale à une certaine situation finale  1 . De plus un même point de ce premier espace correspondra à Σ et à Σ + σ, si σ est une série dont nous savons qu’elle ne fait pas bouger le doigt D. De même à chaque élément du continu C′, ou à chaque point du second espace tactile correspond une série de sensations Σ′, et un même point correspondra à Σ′ et Σ′ + σ′ si σ′ est une série qui ne fait pas bouger le doigt D′. Ce qui nous fait donc distinguer les séries σ et σ′ c’est que les premières n’altèrent pas les impressions tactiles éprouvées par le doigt D et que les secondes conservent celles qu’éprouve le doigt D′. Or voici ce que nous constatons : au début mon doigt D′ éprouve une sensation A′ ; je fais des mouvements qui engendrent les sensations musculaires S ; mon doigt D éprouve l’impression A ; je fais des mouvements qui engendrent une série de sensations σ ; mon doigt D continue à éprouver l’impression A, puisque c’est la propriété caractéristique des séries σ ; je fais ensuite des mouvements qui engendrent la série S′ de sensations musculaires, inverse de S au sens donné plus haut à ce mot. Je constate alors que mon doigt D éprouve de nouveau l’impression A′. (Il faut bien entendu pour cela que S ait été convenablement choisie.) Ce qui veut dire que la série S + σ + S′, conservant les impressions tactiles du doigt D′ est l’une des séries que j’ai appelées σ′. Inversement si l’on prend une série σ′ quelconque, S′ + σ′ + S sera une des séries que nous appelons σ. Ainsi si S est convenablement choisie. S + σ + S′ sera une série σ′, et en faisant varier σ de toutes les manières possibles, on obtiendra toutes les séries σ′ possibles. Tout cela, ne sachant pas encore la géométrie, nous nous bornons à le constater, mais voici comment ceux qui savent la géométrie expliqueraient le fait. Au début mon doigt D′ est au point M, au contact de l’objet a qui lui fait éprouver l’impression A′ ; je fais les mouvements correspondants à la série S ; j’ai dit que cette série devait être convenablement choisie, je dois faire ce choix de telle façon que ces mouvements amènent le doigt D au point primitivement occupé par le doigt D′, c’est-à-dire au point M ; ce doigt D sera ainsi au contact de l’objet a, qui lui fera éprouver l’impression A. Je fais ensuite les mouvements correspondants à la série σ ; dans ces mouvements, par hypothèse, la position du doigt D ne change pas, ce doigt reste donc au contact de l’objet a et continue à éprouver l’impression A. Je fais enfin les mouvements correspondants à la série S′. Comme S′ est inverse de S, ces mouvements amèneront le doigt D′ au point occupé d’abord par le doigt D, c’est-à-dire au point M. Si, comme il est permis de le supposer, l’objet a n’a pas bougé, ce doigt D′ se trouvera au contact de cet objet et éprouvera de nouveau l’impression A′ ; ... C. Q. F. D. Voyons les conséquences. Je considère une série de sensations musculaires S ; à cette série correspondra un point M du premier espace tactile. Reprenons maintenant les deux séries S et S′, inverses l’une de l’autre, dont nous venons de parler. À la série S + Σ + S′ correspondra un point N du second espace tactile, puisque à une série quelconque de sensations musculaires correspond, comme nous l’avons dit, un point soit dans le premier espace, soit dans le second. Je vais considérer les deux points N et M ainsi définis comme se correspondant. Qu’est-ce qui m’y autorise ? Pour que cette correspondance soit admissible, il faut que s’il y a identité entre deux points M et M′ correspondant dans le premier espace à deux séries Σ et Σ′, il y ait aussi identité entre les deux points correspondants du second espace N et N′, c’est-à-dire entre les deux points qui correspondent aux deux séries S + Σ + S′, et S′ + Σ'+ S′. Or nous allons voir que cette condition est remplie. Faisons d’abord une remarque. Comme S et S′ sont inverses l’une de l’autre, on aura S + S′ = O, et par conséquent S + S′ + Σ = Σ + S + S′ = Σ, ou encore Σ + S + S′ + Σ′ = Σ + Σ′ ; mais il ne s’ensuit pas que l’on ait S + Σ + Σ′ = Σ ; car bien que nous ayons employé le signe de l’addition pour représenter la succession de nos sensations, il est clair que l’ordre de cette succession n’est pas indifférent : nous ne pouvons donc, comme dans l’addition ordinaire, intervertir l’ordre des termes ; pour employer un langage abrégé, nos opérations sont associatives, mais non commutatives. Cela posé, pour que Σ et Σ′ correspondent à un même point M = M′ du premier espace, il faut et il suffit que l’on ait Σ′ = Σ + σ. On aura alors : S + Σ′ + S′ = S + Σ + σ + S' = S + Σ + S′ + S + σ + S′. Mais nous venons de constater que S + σ + S′ était une des séries σ′. On aura donc :       S + Σ′ + S′ = S + Σ + S′ + σ' ce qui veut dire que les séries S + Σ′ + S′ et S + Σ + σ′ correspondent à un même point N = N′ du second espace.                               C. Q. F. D. Nos deux espaces se correspondent donc point à point ; ils peuvent être « transformés » l’un dans l’autre ; ils sont isomorphes ; comment sommes- nous conduits à en conclure qu’ils sont identiques ? Considérons les deux séries σ et S + σ + S′ = σ′. J’ai dit que souvent, mais non toujours, la série σ conserve l’impression tactile A éprouvée par le doigt D ; et de même il arrive souvent, mais non toujours, que la série σ′ conserve l’impression tactile A′ éprouvée par le doigt D′. Or je constate qu’il arrive très souvent (c’est-à-dire beaucoup plus souvent que ce que je viens d’appeler « souvent ») que quand la série σ a conservé l’impression A du doigt D, la série σ′ conserve en même temps l’impression A′ du doigt D′ ; et inversement que si la première impression est altérée, la seconde l’est également. Cela arrive très souvent, mais pas toujours. Nous interprétons ce fait expérimental en disant que l’objet inconnu a qui cause l’impression A au doigt D est identique à l’objet inconnu a′ qui cause l’impression A′ au doigt D′. Et en effet quand le premier objet bouge, ce dont nous avertit la disparition de l’impression A, le second bouge également, puisque l’impression A′ disparaît également. Quand le premier objet reste immobile, le second reste immobile. Si ces ceux objets sont identiques, comme le premier est au point M du premier espace et le second au point N du second espace, c’est que ces deux points sont identiques. Voilà comment nous sommes conduits à regarder ces deux espaces comme identiques ; ou mieux voilà ce que nous voulons dire quand nous disons qu’ils sont identiques. Ce que nous venons de dire de l’identité des deux espaces tactiles nous dispense de discuter la question de l’identité de l’espace tactile et de l’espace visuel qui se traiterait de la même manière. § 5. — L’ESPACE ET L’EMPIRISME. Il semble que je vais être amené à des conclusions conformes aux idées empiristes. J’ai cherché en effet à mettre en évidence le rôle de l’expérience et à analyser les faits expérimentaux qui interviennent dans la genèse de l’espace à trois dimensions. Mais quelle que puisse être l’importance de ces faits, il y a une chose que nous ne devons pas oublier et sur laquelle j’ai d’ailleurs appelé plus d’une fois l’attention. Ces faits expérimentaux se vérifient souvent, mais pas toujours. Cela ne veut évidemment pas dire que l’espace a souvent trois dimensions, mais pas toujours. Je sais bien qu’il est aisé de s’en tirer et que, si les faits ne se vérifient pas, on l’expliquera aisément en disant que les objets extérieurs ont bougé. Si l’expérience réussit, on dit qu’elle nous renseigne sur l’espace ; si elle ne réussit pas, on s’en prend aux objets extérieurs qu’on accuse d’avoir bougé ; en d’autres termes, si elle ne réussit pas on lui donne un coup de pouce. Ces coups de pouce sont légitimes ; je n’en disconviens pas ; mais ils suffisent pour nous avertir que les propriétés de l’espace ne sont pas des vérités expérimentales proprement dites. Si nous avions voulu vérifier d’autres lois, nous aurions pu aussi y parvenir, en donnant d’autres coups de pouce analogues ? N’aurions-nous pas toujours pu justifier ces coups de pouce par les mêmes raisons ? Tout au plus aurait-on pu nous dire : « vos coups de pouce sont légitimes sans doute, mais vous en abusez ; à quoi bon faire bouger si souvent les objets extérieurs ? » En résumé, l’expérience ne nous prouve pas que l’espace a trois dimensions ; elle nous prouve qu’il est commode de lui en attribuer trois, parce que c’est ainsi que le nombre des coups de pouce est réduit au minimum. Ajouterai-je que l’expérience ne nous ferait jamais toucher que l’espace représentatif qui est un continu physique, et non l’espace géométrique qui est un continu mathématique. Tout au plus pourrait-il nous apprendre qu’il est commode de donner à l’espace géométrique trois dimensions pour qu’il en ait autant que l’espace représentatif. La question empirique peut se poser sous une autre forme. Est-il impossible de concevoir les phénomènes physiques, les phénomènes mécaniques, par exemple, autrement que dans l’espace à trois dimensions ? Nous aurions ainsi une preuve expérimentale objective, pour ainsi dire, indépendante de notre physiologie, de nos modes de représentation. Mais il n’en est pas ainsi ; je ne discuterai pas ici complètement la question, je me bornerai à rappeler l’exemple frappant que nous donne la mécanique de Hertz. On sait que le grand physicien ne croyait pas à l’existence des forces proprement dites ; il supposait que les points matériels visibles sont assujettis à certaines liaisons invisibles qui les relient à d’autres points invisibles et que c’est l’effet de ces liaisons invisibles que nous attribuons aux forces. Mais ce n’est là qu’une partie de ses idées. Supposons un système formé de n points matériels visibles ou non ; cela fera en tout 3 n coordonnées ; regardons-les comme les coordonnées d’un point unique dans l’espace à 3 n dimensions. Ce point unique serait assujetti à rester sur une surface (d’un nombre quelconque de dimensions < 3 n) en vertu des liaisons dont nous venons de parler ; pour se rendre sur cette surface, d’un point à un autre, il prendrait toujours le chemin le plus court ; ce serait là le principe unique qui résumerait toute la mécanique. Quoi que l’on doive penser de cette hypothèse, qu’on soit séduit par sa simplicité, ou rebuté par son caractère artificiel, le seul fait que Hertz ait pu la concevoir, et la regarder comme plus commode que nos hypothèses habituelles, suffit pour prouver que nos idées ordinaires, et, en particulier, les trois dimensions de l’espace, ne s’imposent nullement au mécanicien avec une force invincible. § 6. — L’ESPRIT ET L’ESPACE L’expérience n’a donc joué qu’un seul rôle, elle a servi d’occasion. Mais ce rôle n’en était pas moins très important ; et j’ai cru nécessaire de le faire ressortir. Ce rôle aurait été inutile s’il existait une forme a priori s’imposant à notre sensibilité et qui serait l’espace à trois dimensions. Cette forme existe-t-elle, ou, si l’on veut, pouvons-nous nous représenter l’espace à plus de trois dimensions ? Et d’abord que signifie cette question ? Au vrai sens du mot, il est clair que nous ne pouvons nous représenter l’espace à quatre, ni l’espace à trois dimensions ; nous ne pouvons d’abord nous les représenter vides, et nous ne pouvons non plus nous représenter un objet ni dans l’espace à quatre, ni dans l’espace à trois dimensions : 1° parce que ces espaces sont l’un et l’autre infinis et que nous ne pourrions nous représenter une figure dans l’espace, c’est-à-dire la partie dans le tout, sans nous représenter le tout, et cela est impossible, puisque ce tout est infini ; 2° parce que ces espaces sont l’un et l’autre des continus mathématiques et que nous ne pouvons nous représenter que le continu physique ; 3° parce que ces espaces sont l’un et l’autre homogènes, et que les cadres où nous enfermons nos sensations, étant limités, ne peuvent être homogènes. Ainsi la question posée ne peut s’entendre que d’une manière ; est-il possible d’imaginer que, les résultats des expériences relatées plus haut ayant été différents, nous ayons été conduits à attribuer à l’espace plus de trois dimensions ; d’imaginer, par exemple, que la sensation d’accommodation ne soit pas constamment d’accord avec la sensation de convergence des yeux ; ou bien que les expériences dont nous avons parlé au paragraphe 2 et dont nous exprimons le résultat en disant « que le toucher ne s’exerce pas à distance », nous aient conduits à une conclusion inverse. Et alors évidemment oui cela est possible ; du moment qu’on imagine une expérience, on imagine par cela même les deux résultats contraires qu’elle peut donner. Cela est possible, mais cela est difficile, parce que nous avons à vaincre une foule d’associations d’idées, qui sont le fruit d’une longue expérience personnelle et de l’expérience plus longue encore de la race. Sont-ce ces associations (ou du moins celles d’entre elles que nous avons héritées de nos ancêtres), qui constituent cette forme a priori dont on nous dit que nous avons l’intuition pure ? Alors je ne vois pas pourquoi on la déclarerait rebelle à l’analyse et on me dénierait le droit d’en rechercher l’origine. Quand on dit que nos sensations sont « étendues » on ne peut vouloir dire qu’une chose, c’est qu’elles se trouvent toujours associées à l’idée de certaines sensations musculaires, correspondant aux mouvements qui permettraient d’atteindre l’objet qui les cause, qui permettraient, en d’autres termes, de se défendre contre elles. Et c’est justement parce que cette association est utile à la défense de l’organisme, qu’elle est si ancienne dans l’histoire de l’espèce et qu’elle nous semble indestructible. Néanmoins, ce n’est qu’une association et on peut concevoir qu’elle soit rompue ; de sorte qu’on ne peut pas dire que la sensation ne peut entrer dans la conscience sans entrer dans l’espace, mais qu’en fait elle n’entre pas dans la conscience sans entrer dans l’espace, ce qui veut dire, sans être engagée dans cette association. Je ne puis comprendre non plus qu’on dise que l’idée de temps est postérieure logiquement à l’espace, parce que nous ne pouvons nous le représenter que sous la forme d’une droite ; autant dire que le temps est postérieur logiquement à la culture des prairies, parce qu’on se le représente généralement armé d’une faux. Qu’on ne puisse pas se représenter simultanément les diverses parties du temps, cela va de soi, puisque le caractère essentiel de ces parties est précisément de n’être pas simultanées. Cela ne veut pas dire que l’on n’ait pas l’intuition du temps. À ce compte, on n’aurait pas non plus celle de l’espace, car, lui aussi, on ne peut pas se le représenter, au sens propre du mot, pour les raisons que j’ai dites. Ce que nous nous représentons sous le nom de droite est une image grossière qui ressemble aussi mal à la droite géométrique qu’au temps lui-même. Pourquoi a-t-on dit que toute tentative pour donner une quatrième dimension à l’espace ramène toujours celle-ci à l’une des trois autres ? Il est aisé de le comprendre. Envisageons nos sensations musculaires et les « séries » qu’elles peuvent former. À la suite d’expériences nombreuses, les idées de ces séries sont associées entre elles dans une trame très complexe, nos séries sont classées. Qu’on me permette, pour la commodité du langage, d’exprimer ma pensée d’une façon tout à fait grossière et même inexacte en disant que nos séries de sensations musculaires sont classées en trois classes correspondant aux trois dimensions de l’espace. Bien entendu, cette classification est beaucoup plus compliquée que cela, mais cela suffira pour faire comprendre mon raisonnement. Si je veux imaginer une quatrième dimension, je supposerai une autre série de sensations musculaires, faisant partie d’une quatrième classe. Mais comme toutes mes sensations musculaires ont déjà été rangées dans une des trois classes préexistantes, je ne puis me représenter qu’une série appartenant à l’une de ces trois classes, de sorte que ma quatrième dimension est ramenée à l’une des trois autres. Qu’est-ce que cela prouve ? C’est qu’il aurait fallu d’abord détruire l’ancienne classification et la remplacer par une nouvelle où les séries de sensations musculaires auraient été réparties en quatre classes. La difficulté aurait disparu. On la présente, quelquefois, sous une forme plus frappante. Supposons que je sois enfermé dans une chambre entre les six parois infranchissables formées par les quatre murs, le plafond et le plancher ; il me sera impossible d’en sortir et d’imaginer que j’en sorte. — Pardon, ne pouvez-vous vous imaginer que la porte s’ouvre, ou que deux de ces parois s’écartent ? — Mais bien entendu, répondra-t-on, il faut qu’on suppose que ces parois restent immobiles. — Oui, mais il est évident que moi, j’ai le droit de bouger ; et alors les parois que nous supposons en repos absolu seront en mouvement relatif par rapport à moi. — Oui, mais un pareil mouvement relatif ne peut pas être quelconque, quand des objets sont en repos, leur mouvement relatif par rapport à des axes quelconques est celui d’un corps solide invariable ; or, les mouvements apparents que vous imaginez ne sont pas conformes aux lois du mouvement d’un solide invariable. — Oui, mais c’est l’expérience qui nous a appris les lois du mouvement d’un solide invariable ; rien n’empêcherait d’imaginer qu’elles fussent différentes. En résumé, pour m’imaginer que je sors de ma prison, je n’ai qu’à m’imaginer que les parois semblent s’en écarter, quand je remue. Je crois donc que si par espace on entend un continu mathématique à trois dimensions, fût-il d’ailleurs amorphe, c’est l’esprit qui le construit, mais il ne le construit pas avec rien, il lui faut des matériaux et des modèles. Ces matériaux comme ces modèles préexistent en lui. Mais il n’y a pas un modèle unique qui s’impose à lui ; il a du choix ; il peut choisir, par exemple, entre l’espace à quatre et l’espace à trois dimensions. Quel est alors le rôle de l’expérience ? C’est elle qui lui donne les indications d’après lesquelles il fait son choix. Autre chose : d’où vient à l’espace son caractère quantitatif ? Il vient du rôle que jouent dans sa genèse les séries de sensations musculaires. Ce sont des séries qui peuvent se répéter, et c’est de leur répétition que vient le nombre ; c’est parce qu’elles peuvent se répéter indéfiniment que l’espace est infini. Et enfin nous avons vu à la fin du paragraphe 3 que c’est aussi pour cela que l’espace est relatif. Ainsi c’est la répétition qui a donné à l’espace ses caractères essentiels ; or, la répétition suppose le temps ; c’est assez dire que le temps est antérieur logiquement à l’espace. § 7. — RÔLE DES CANAUX SEMI-CIRCULAIRES Je n’ai pas parlé jusqu’ici du rôle de certains organes auxquels les physiologistes attribuent avec raison une importance capitale, je veux parler des canaux semi-circulaires. De nombreuses expériences ont suffisamment montré que ces canaux sont nécessaires à notre sens d’orientation ; mais les physiologistes ne sont pas entièrement d’accord ; deux théories opposées ont été proposées, celle de Mach-Delage et celle de M. de Cyon. M. de Cyon est un physiologiste qui a illustré son nom par d’importantes découvertes sur l’innervation du cœur ; je ne saurais toutefois partager ses idées sur la question qui nous occupe. N’étant pas physiologiste, j’hésite à critiquer les expériences qu’il a dirigées contre la théorie adverse de Mach-Delage ; il me semble cependant qu’elles ne sont pas probantes, car dans beaucoup d’entre elles on faisait varier la pression dans un des canaux tout entier, tandis que, physiologiquement, ce qui varie, c’est la différence entre les pressions sur les deux extrémités du canal ; dans d’autres, les organes étaient profondément lésés, ce qui devait en altérer les fonctions. Peu importe d’ailleurs ; les expériences, si elles étaient irréprochables, pourraient être probantes contre la théorie ancienne. Elles ne pourraient l’être pour la théorie nouvelle. Si, en effet, j’ai bien compris la théorie, il me suffira de l’exposer pour qu’on comprenne qu’il est impossible de concevoir une expérience qui la confirme. Les trois paires de canaux auraient pour unique fonction de nous avertir que l’espace a trois dimensions. Les souris japonaises n’ont que deux paires de canaux ; elles croient, paraît-il, que l’espace n’a que deux dimensions, et elles manifestent cette opinion de la façon la plus étrange ; elles se rangent en cercle, chacune d’elles mettant le nez sous la queue de la précédente, et, ainsi rangées, elles se mettent à tourner rapidement. Les lamproies, n’ayant qu’une paire de canaux, croient que l’espace n’a qu’une dimension, mais leurs manifestations sont moins tumultueuses. Il est évident qu’une semblable théorie n’est pas admissible. Les organes des sens sont destinés à nous avertir des changements qui se produisent dans le monde extérieur. On ne comprendrait pas pourquoi le créateur nous aurait donné des organes destinés à nous crier sans cesse : Souviens-toi que l’espace a trois dimensions, puisque le nombre de ces trois dimensions n’est pas sujet au changement. Nous devons donc en revenir à la théorie de Mach-Delage. Ce que peuvent nous faire connaître les nerfs des canaux, c’est la différence de pression sur les deux extrémités d’un même canal, et par là : 1° La direction de la verticale par rapport à trois axes invariablement liés à la tête ; 2° Les trois composantes de l’accélération de translation du centre de gravité de la tête ; 3° Les forces centrifuges développées par la rotation de la tête ; 4° L’accélération du mouvement de rotation de la tête. Il résulte des expériences de M. Delage que c’est cette dernière indication qui est de beaucoup la plus importante ; sans doute parce que les nerfs sont moins sensibles à la différence de pression elle-même qu’aux variations brusques de cette différence. Les trois premières indications peuvent ainsi être négligées. Connaissant l’accélération du mouvement de rotation de la tête à chaque instant, nous en déduisons, par une intégration inconsciente, l’orientation finale de la tête, rapportée à une certaine orientation initiale prise pour origine. Les canaux circulaires contribuent donc à nous renseigner sur les mouvements que nous avons exécutés, et cela au même titre que les sensations musculaires. Quand donc, plus haut, nous parlions de la série S ou de la série Σ, nous aurions dû dire, non que c’étaient des séries de sensations musculaires seulement, mais que c’étaient des séries à la fois de sensations musculaires et de sensations dues aux canaux semi-circulaires. À part cette addition, nous n’aurions rien à changer à ce qui précède. Dans ces séries S et Σ, ces sensations de canaux semi-circulaires tiennent évidemment une place tout à fait importante. À elles seules elles ne suffiraient pas cependant ; car elles ne peuvent nous renseigner que sur les mouvements de la tête, elles ne nous apprennent rien sur les mouvements relatifs du tronc ou des membres par rapport à la tête. De plus, il semble qu’elles nous renseignent seulement sur les rotations de la tête et non sur les translations qu’elle peut subir.     DEUXIÈME PARTIE LES SCIENCES PHYSIQUES     CHAPITRE V L’Analyse et la Physique. I On vous a sans doute souvent demandé à quoi servent les mathématiques et si ces délicates constructions que nous tirons tout entières de notre esprit ne sont pas artificielles et enfantées par notre caprice. Parmi les personnes qui font cette question, je dois faire une distinction ; les gens pratiques réclament seulement de nous le moyen de gagner de l’argent. Ceux-là ne méritent pas qu’on leur réponde ; c’est à eux plutôt qu’il conviendrait de demander à quoi bon accumuler tant de richesses et si, pour avoir le temps de les acquérir, il faut négliger l’art et la science qui seuls nous font des âmes capables d’en jouir,       et propter vitam vivendi perdere causas. D’ailleurs, une science uniquement faite en vue des applications est impossible ; les vérités ne sont fécondes que si elles sont enchaînées les unes aux autres. Si l’on s’attache seulement à celles dont on attend un résultat immédiat, les anneaux intermédiaires manqueront, et il n’y aura plus de chaîne. Les hommes les plus dédaigneux de la théorie y trouvent sans s’en douter un aliment quotidien ; si l’on était privé de cet aliment, le progrès s’arrêterait rapidement et nous nous figerions bientôt dans l’immobilité de la Chine. Mais c’est assez nous occuper des praticiens intransigeants. À côté d’eux, il y a ceux qui sont seulement curieux de la nature et qui nous demandent si nous sommes en état de la leur mieux faire connaître. Pour leur répondre, nous n’avons qu’à leur montrer les deux monuments déjà ébauchés de la Mécanique Céleste et de la Physique Mathématique. Ils nous concéderaient sans doute que ces monuments valent bien la peine qu’ils nous ont coûtée. Mais ce n’est pas assez. Les mathématiques ont un triple but. Elles doivent fournir un instrument pour l’étude de la nature. Mais ce n’est pas tout : elles ont un but philosophique et, j’ose le dire, un but esthétique. Elles doivent aider le philosophe à approfondir les notions de nombre, d’espace, de temps. Et surtout leurs adeptes y trouvent des jouissances analogues à celles que donnent la peinture et la musique. Ils admirent la délicate harmonie des nombres et des formes ; ils s’émerveillent quand une découverte nouvelle leur ouvre une perspective inattendue ; et la joie qu’ils éprouvent ainsi n’a- t-elle pas le caractère esthétique, bien que les sens n’y prennent aucune part ? Peu de privilégiés sont appelés à la goûter pleinement, cela est vrai, mais n’est-ce pas ce qui arrive pour les arts les plus nobles ? C’est pourquoi je n’hésite pas à dire que les mathématiques méritent d’être cultivées pour elles-mêmes et que les théories qui ne peuvent être appliquées à la physique doivent l’être comme les autres. Quand même le but physique et le but esthétique ne seraient pas solidaires, nous ne devrions sacrifier ni l’un ni l’autre. Mais il y a plus : ces deux buts sont inséparables et le meilleur moyen d’atteindre l’un c’est de viser l’autre, ou du moins de ne jamais le perdre de vue. C’est ce que je vais m’efforcer de démontrer en précisant la nature des rapports entre la science pure et ses applications. Le mathématicien ne doit pas être pour le physicien un simple fournisseur de formules ; il faut qu’il y ait entre eux une collaboration plus intime. La physique mathématique et l’analyse pure ne sont pas seulement des puissances limitrophes, entretenant des rapports de bon voisinage ; elles se pénètrent mutuellement et leur esprit est le même. C’est ce que l’on comprendra mieux quand j’aurai montré ce que la physique reçoit de la mathématique et ce que la mathématique, en retour, emprunte à la physique. II Le physicien ne peut demander à l’analyste de lui révéler une vérité nouvelle ; tout au plus celui-ci pourrait-il l’aider à la pressentir. Il y a longtemps que personne ne songe plus à devancer l’expérience, ou à construire le monde de toutes pièces sur quelques hypothèses hâtives. De toutes ces constructions où l’on se complaisait encore naïvement il y a un siècle, il ne reste plus aujourd’hui que des ruines. Toutes les lois sont donc tirées de l’expérience ; mais pour les énoncer, il faut une langue spéciale ; le langage ordinaire est trop pauvre, il est d’ailleurs trop vague, pour exprimer des rapports si délicats, si riches et si précis. Voilà donc une première raison pour laquelle le physicien ne peut se passer des mathématiques ; elles lui fournissent la seule langue qu’il puisse parler. Et ce n’est pas une chose indifférente qu’une langue bien faite ; pour ne pas sortir de la physique, l’homme inconnu qui a inventé le mot chaleur a voué bien des générations à l’erreur. On a traité la chaleur comme une substance, simplement parce qu’elle était désignée par un substantif, et on l’a crue indestructible. En revanche, celui qui a inventé le mot électricité a eu le bonheur immérité de doter implicitement la physique d’une loi nouvelle, celle de la conservation de l’électricité, qui, par un pur hasard, s’est trouvée exacte, du moins jusqu’à présent. Eh bien, pour poursuivre la comparaison, les écrivains qui embellissent une langue, qui la traitent comme un objet d’art, en font en même temps un instrument plus souple, plus apte à rendre les nuances de la pensée. On comprend alors comment l’analyste, qui poursuit un but purement esthétique, contribue par cela même à créer une langue plus propre à satisfaire le physicien. Mais ce n’est pas tout ; la loi sort de l’expérience, mais elle n’en sort pas immédiatement. L’expérience est individuelle, la loi qu’on en tire est générale, l’expérience n’est qu’approchée, la loi est précise ou du moins prétend l’être. L’expérience se fait dans des conditions toujours complexes, l’énoncé de la loi élimine ces complications. C’est ce qu’on appelle « corriger les erreurs systématiques ». En un mot, pour tirer la loi de l’expérience, il faut généraliser ; c’est une nécessité qui s’impose à l’observateur le plus circonspect. Mais comment généraliser ? Toute vérité particulière peut évidemment être étendue d’une infinité de manières. Entre ces mille chemins qui s’ouvrent devant nous, il faut faire un choix, au moins provisoire ; dans ce choix, qui nous guidera ? Ce ne pourra être que l’analogie. Mais que ce mot est vague ! L’homme primitif ne connaît que les analogies grossières, celles qui frappent les sens, celles des couleurs ou des sons. Ce n’est pas lui qui aurait songé à rapprocher par exemple la lumière de la chaleur rayonnante. Qui nous a appris à connaître les analogies véritables, profondes, celles que les yeux ne voient pas et que la raison devine ? C’est l’esprit mathématique, qui dédaigne la matière pour ne s’attacher qu’à la forme pure. C’est lui qui nous a enseigné à nommer du même nom des êtres qui ne diffèrent que par la matière, à nommer du même nom par exemple la multiplication des quaternions et celle des nombres entiers. Si les quaternions, dont je viens de parler, n’avaient été si promptement utilisés par les physiciens anglais, bien des personnes n’y verraient sans doute qu’une rêverie oiseuse, et pourtant, en nous apprenant à rapprocher ce que les apparences séparent, ils nous auraient déjà rendus plus aptes à pénétrer les secrets de la nature. Voilà les services que le physicien doit attendre de l’analyse, mais pour que cette science puisse les lui rendre, il faut qu’elle soit cultivée de la façon la plus large, sans préoccupation immédiate d’utilité, il faut que le mathématicien ait travaillé en artiste. Ce que nous lui demandons c’est de nous aider à voir, à discerner notre chemin dans le dédale qui s’offre à nous. Or, celui qui voit le mieux, c’est celui qui s’est élevé le plus haut. Les exemples abondent, et je me bornerai aux plus frappants. Le premier nous montrera comment il suffit de changer de langage pour apercevoir des généralisations qu’on n’avait pas d’abord soupçonnées. Quand la loi de Newton s’est substituée à celle de Képler, on ne connaissait encore que le mouvement elliptique. Or, en ce qui concerne ce mouvement, les deux lois ne diffèrent que par la forme ; on passe de l’une à l’autre par une simple différenciation. Et cependant, de la loi de Newton, on peut déduire, par une généralisation immédiate, tous les effets des perturbations et toute la mécanique céleste. Jamais au contraire, si l’on avait conservé l’énoncé de Képler, on n’aurait regardé les orbites des planètes troublées, ces courbes compliquées dont personne n’a jamais écrit l’équation, comme les généralisations naturelles de l’ellipse. Les progrès des observations n’auraient servi qu’à faire croire au chaos. Le second exemple mérite également d’être médité. Quand Maxwell a commencé ses travaux, les lois de l’électrodynamique admises jusqu’à lui rendaient compte de tous les faits connus. Ce n’est pas une expérience nouvelle qui est venue les infirmer. Mais en les envisageant sous un biais nouveau, Maxwell a reconnu que les équations deviennent plus symétriques quand on y ajoute un terme, et d’autre part ce terme était trop petit pour produire des effets appréciables avec les méthodes anciennes. On sait que les vues a priori de Maxwell ont attendu vingt ans une confirmation expérimentale ; ou si vous aimez mieux, Maxwell a devancé de vingt ans l’expérience. Comment ce triomphe a-t-il été obtenu ? C’est que Maxwell était profondément imprégné du sentiment de la symétrie mathématique ; en aurait-il été de même, si d’autres n’avaient avant lui recherché cette symétrie pour sa beauté propre ? C’est que Maxwell était habitué à « penser en vecteurs » et pourtant si les vecteurs se sont introduits dans l’analyse, c’est par la théorie des imaginaires. Et ceux qui ont inventé les imaginaires ne se doutaient guère du parti qu’on en tirerait pour l’étude du monde réel ; le nom qu’ils leur ont donné le prouve suffisamment. Maxwell en un mot n’était peut-être pas un habile analyste, mais cette habileté n’aurait été pour lui qu’un bagage inutile et gênant. Au contraire il avait au plus haut degré le sens intime des analogies mathématiques. C’est pour cela qu’il a fait de bonne physique mathématique. L’exemple de Maxwell nous apprend encore autre chose. Comment faut-il traiter les équations de la physique mathématique ? devons-nous simplement en déduire toutes les conséquences, et les regarder comme des réalités intangibles ? Loin de là ; ce qu’elles doivent nous apprendre surtout, c’est ce qu’on peut et ce qu’on doit y changer. C’est comme cela que nous en tirerons quelque chose d’utile. Le troisième exemple va nous montrer comment nous pouvons apercevoir des analogies mathématiques entre des phénomènes qui n’ont physiquement aucun rapport ni apparent, ni réel, de telle sorte que les lois de l’un de ces phénomènes nous aident à deviner celles de l’autre. Une même équation, celle de Laplace, se rencontre dans la théorie de l’attraction newtonienne, dans celle du mouvement des liquides, dans celle du potentiel électrique, dans celle du magnétisme, dans celle de la propagation de la chaleur et dans bien d’autres encore. Qu’en résulte-t-il ? Ces théories semblent des images calquées l’une sur l’autre ; elles s’éclairent mutuellement, en s’empruntant leur langage ; demandez aux électriciens s’ils ne se félicitent pas d’avoir inventé le mot de flux de force, suggéré par l’hydrodynamique et la théorie de la chaleur. Ainsi les analogies mathématiques, non seulement peuvent nous faire pressentir les analogies physiques, mais encore ne cessent pas d’être utiles, quand ces dernières font défaut. En résumé le but de la physique mathématique n’est pas seulement de faciliter au physicien le calcul numérique de certaines constantes ou l’intégration de certaines équations différentielles. Il est encore, il est surtout de lui faire connaître l’harmonie cachée des choses en les lui faisant voir d’un nouveau biais. De toutes les parties de l’analyse, ce sont les plus élevées, ce sont les plus pures, pour ainsi dire, qui seront les plus fécondes entre les mains de ceux qui savent s’en servir. III Voyons maintenant ce que l’analyse doit à la physique. Il faudrait avoir complètement oublié l’histoire de la science pour ne pas se rappeler que le désir de connaître la nature a eu sur le développement des mathématiques l’influence la plus constante et la plus heureuse. En premier lieu, le physicien nous pose des problèmes dont il attend de nous la solution. Mais en nous les proposant, il nous a payé largement d’avance le service que nous pourrons lui rendre, si nous parvenons à les résoudre. Si l’on veut me permettre de poursuivre ma comparaison avec les beaux-arts, le mathématicien pur qui oublierait l’existence du monde extérieur, serait semblable à un peintre qui saurait harmonieusement combiner les couleurs et les formes, mais à qui les modèles feraient défaut. Sa puissance créatrice serait bientôt tarie. Les combinaisons que peuvent former les nombres et les symboles sont une multitude infinie. Dans cette multitude, comment choisirons-nous celles qui sont dignes de retenir notre attention ? Nous laisserons-nous uniquement guider par notre caprice ? Ce caprice, qui lui-même d’ailleurs ne tarderait pas à se lasser, nous entraînerait sans doute bien loin les uns des autres et nous cesserions promptement de nous entendre entre nous. Mais ce n’est là que le petit côté de la question. La physique nous empêchera sans doute de nous égarer, mais elle nous préservera aussi d’un danger bien plus redoutable ; elle nous empêchera de tourner sans cesse dans le même cercle. L’histoire le prouve, la physique ne nous a pas seulement forcés de choisir entre les problèmes qui se présentaient en foule ; elle nous en a imposé auxquels nous n’aurions jamais songé sans elle. Quelque variée que soit l’imagination de l’homme, la nature est mille fois plus riche encore. Pour la suivre, nous devons prendre des chemins que nous avions négligés et ces chemins nous conduisent souvent à des sommets d’où nous découvrons des paysages nouveaux. Quoi de plus utile ! Il en est des symboles mathématiques comme des réalités physiques ; c’est en comparant les aspects différents des choses que nous pourrons en comprendre l’harmonie intime, qui seule est belle et par conséquent digne de nos efforts. Le premier exemple que je citerai est tellement ancien qu’on serait tenté de l’oublier ; il n’en est pas moins le plus important de tous. Le seul objet naturel de la pensée mathématique, c’est le nombre entier. C’est le monde extérieur qui nous a imposé le continu, que nous avons inventé sans doute, mais qu’il nous a forcés à inventer. Sans lui il n’y aurait pas d’analyse infinitésimale ; toute la science mathématique se réduirait à l’arithmétique ou à la théorie des substitutions. Au contraire, nous avons consacré à l’étude du continu presque tout notre temps et toutes nos forces. Qui le regrettera ; qui croira que ce temps et ces forces ont été perdus ? L’analyse nous déroule des perspectives infinies que l’arithmétique ne soupçonne pas ; elle vous montre d’un coup d’œil un ensemble grandiose, dont l’ordonnance est simple et symétrique ; au contraire, dans la théorie des nombres, où règne l’imprévu, la vue est pour ainsi dire arrêtée à chaque pas. Sans doute on vous dira qu’en dehors du nombre entier, il n’y a pas de rigueur, et par conséquent pas de vérité mathématique ; que partout il se cache, et qu’il faut s’efforcer de rendre transparents les voiles qui le dissimulent, dût-on pour cela se résigner à d’interminables redites. Ne soyons pas si puristes et soyons reconnaissants au continu qui, si tout sort du nombre entier, était seul capable d’en faire tant sortir. Ai-je besoin d’ailleurs de rappeler que M. Hermite a tiré un parti surprenant de l’introduction des variables continues dans la théorie des nombres ? Ainsi le domaine propre du nombre entier est envahi lui-même, et cette invasion a établi l’ordre, là où régnait le désordre. Voilà ce que nous devons au continu et par conséquent à la nature physique. La série de Fourier est un instrument précieux dont l’analyse fait un usage continuel, c’est par ce moyen qu’elle a pu représenter des fonctions discontinues ; si Fourier l’a inventée, c’est pour résoudre un problème de physique relatif à la propagation de la chaleur. Si ce problème ne s’était posé naturellement, on n’aurait jamais osé rendre au discontinu ses droits ; on aurait longtemps encore regardé les fonctions continues comme les seules fonctions véritables. La notion de fonction s’est par là considérablement étendue et a reçu de quelques analystes logiciens un développement imprévu. Ces analystes se sont ainsi aventurés dans des régions où règne l’abstraction la plus pure et se sont éloignés autant qu’il est possible du monde réel. C’est cependant un problème de physique qui leur en a fourni l’occasion. Derrière la série de Fourrier, d’autres séries analogues sont entrées dans le domaine de l’analyse ; elles y sont entrées par la même porte ; elles ont été imaginées en vue des applications. La théorie des équations aux dérivées partielles du second ordre a eu une histoire analogue ; elle s’est développée surtout par et pour la physique. Mais elle peut prendre bien des formes ; car une pareille équation ne suffit pas pour déterminer la fonction inconnue, il faut y adjoindre des conditions complémentaires qu’on appelle conditions aux limites ; d’où bien des problèmes différents. Si les analystes s’étaient abandonnés à leurs tendances naturelles, ils n’en auraient jamais connu qu’un, celui qu’a traité M me de Kowalevski dans son célèbre mémoire. Mais il y en a une foule d’autres qu’ils auraient ignorés. Chacune des théories physiques, celle de l’électricité, celle de la chaleur, nous présente ces équations sous un aspect nouveau. On peut donc dire que sans elles, nous ne connaîtrions pas les équations aux dérivées partielles. Il est inutile de multiplier les exemples. J’en ai dit assez pour pouvoir conclure : quand les physiciens nous demandent la solution d’un problème, ce n’est pas une corvée qu’ils nous imposent, c’est nous au contraire qui leur devons des remercîments. IV Mais ce n’est pas tout ; la physique ne nous donne pas seulement l’occasion de résoudre des problèmes ; elle nous aide à en trouver les moyens, et cela de deux manières. Elle nous fait pressentir la solution ; elle nous suggère des raisonnements. J’ai parlé plus haut de l’équation de Laplace que l’on rencontre dans une foule de théories physiques fort éloignées les unes des autres. On la retrouve en géométrie, dans la théorie de la représentation conforme et en analyse pure, dans celle des imaginaires. De cette façon, dans l’étude des fonctions de variables complexes, l’analyste, à côté de l’image géométrique, qui est son instrument habituel, trouve plusieurs images physiques dont il peut faire usage avec le même succès. Grâce à ces images, il peut voir d’un coup d’œil ce que la déduction pure ne lui montrerait que successivement. Il rassemble ainsi les éléments épars de la solution, et par une sorte d’intuition devine avant de pouvoir démontrer. Deviner avant de démontrer ? Ai-je besoin de rappeler que c’est ainsi que se sont faites toutes les découvertes importantes ? Combien de vérités que les analogies physiques nous permettent de pressentir et que nous ne sommes pas en état d’établir par un raisonnement rigoureux ! Par exemple, la physique mathématique introduit un grand nombre de développements en séries. Ces développements convergent, personne n’en doute ; mais la certitude mathématique fait défaut. Ce sont autant de conquêtes assurées pour les chercheurs qui viendront après nous. La physique, d’autre part, ne nous fournit pas seulement des solutions ; elle nous fournit encore, dans une certaine mesure, des raisonnements. Il me suffira de rappeler comment M. Klein, dans une question relative aux surfaces de Riemann, a eu recours aux propriétés des courants électriques. Il est vrai que les raisonnements de ce genre ne sont pas rigoureux, au sens que l’analyste attache à ce mot. Et, à ce propos, une question se pose : comment une démonstration, qui n’est pas assez rigoureuse pour l’analyste, peut-elle suffire au physicien ? Il semble qu’il ne peut y avoir deux rigueurs, que la rigueur est ou n’est pas, et que, là où elle n’est pas, il ne peut y avoir de raisonnement. On comprendra mieux ce paradoxe apparent, en se rappelant dans quelles conditions le nombre s’applique aux phénomènes naturels. D’où proviennent en général les difficultés que l’on rencontre quand on recherche la rigueur ? On s’y heurte presque toujours en voulant établir que telle quantité tend vers telle limite, ou que telle fonction est continue, ou qu’elle a une dérivée. Or les nombres que le physicien mesure par l’expérience ne lui sont jamais connus qu’approximativement ; et, d’autre part, une fonction quelconque diffère toujours aussi peu que l’on veut d’une fonction discontinue, et en même temps elle diffère aussi peu que l’on veut d’une fonction continue. Le physicien peut donc supposer à son gré, que la fonction étudiée est continue, ou qu’elle est discontinue ; qu’elle a une dérivée, ou qu’elle n’en a pas ; et cela sans crainte d’être jamais contredit, ni par l’expérience actuelle, ni par aucune expérience future. On conçoit, qu’avec cette liberté, il se joue des difficultés qui arrêtent l’analyste. Il peut toujours raisonner comme si toutes les fonctions qui s’introduisent dans ses calculs étaient des polynômes entiers. Ainsi l’aperçu qui suffit à la physique n’est pas le raisonnement qu’exige l’analyse. Il ne s’en suit pas que l’un ne puisse aider à trouver l’autre. On a déjà transformé en démonstrations rigoureuses tant d’aperçus physiques que cette transformation est aujourd’hui facile. Les exemples abonderaient si je ne craignais, en les citant, de fatiguer l’attention du lecteur. J’espère en avoir assez dit pour montrer que l’analyse pure et la physique mathématique peuvent se servir l’une l’autre sans se faire l’une à l’autre aucun sacrifice et que chacune de ces deux sciences doit se réjouir de tout ce qui élève son associée.     CHAPITRE VI L’Astronomie Les Gouvernements et les Parlements doivent trouver que l’Astronomie est une des sciences qui coûtent le plus cher : le moindre instrument coûte des centaines de mille francs, le moindre Observatoire coûte des millions ; chaque éclipse entraîne à sa suite des crédits supplémentaires. Et tout cela pour des astres qui sont si loin, qui sont complètement étrangers à nos luttes électorales et n’y prendront vraisemblablement jamais aucune part. Il faut que nos hommes politiques aient conservé un reste d’idéalisme, un vague instinct de ce qui est grand ; vraiment, je crois qu’ils ont été calomniés ; il convient de les encourager et de leur bien montrer que cet instinct ne les trompe pas, et qu’ils ne sont pas dupes de cet idéalisme. On pourrait bien leur parler de la marine, dont personne ne peut méconnaître l’importance, et qui a besoin de l’Astronomie. Mais ce serait prendre la question par son petit côté. L’Astronomie est utile, parce qu’elle nous élève au-dessus de nous- mêmes ; elle est utile, parce qu’elle est grande ; elle est utile, parce qu’elle est belle ; voilà ce qu’il faut dire. C’est elle qui nous montre combien l’homme est petit par le corps et combien il est grand par l’esprit, puisque cette immensité éclatante où son corps n’est qu’un point obscur, son intelligence peut l’embrasser tout entière et en goûter la silencieuse harmonie. Nous atteignons ainsi à la conscience de notre force, et c’est là ce que nous ne saurions acheter trop cher, parce que cette conscience nous rend plus forts. Mais ce que je voudrais vous montrer avant tout, c’est à quel point l’Astronomie a facilité l’œuvre des autres sciences, plus directement utiles, parce que c’est elle qui nous a fait une âme capable de comprendre la nature. Vous figurez-vous combien l’humanité serait diminuée, si, sous un ciel constamment couvert de nuages, comme doit l’être celui de Jupiter, elle avait éternellement ignoré les astres ? Croyez-vous que, dans un pareil monde, nous serions ce que nous sommes ? J’entends bien que sous cette sombre voûte, nous aurions été privés de la lumière du Soleil, nécessaire à des organismes comme ceux qui habitent la Terre. Mais, si vous voulez bien, nous admettrons que ces nuages sont phosphorescents et qu’ils répandent une lueur douce et constante. Puisque nous sommes en train de faire des hypothèses, une hypothèse de plus ne nous coûtera pas davantage. Eh bien ! je répète ma question : croyez-vous que, dans un pareil monde, nous serions ce que nous sommes ? C’est que les astres ne nous envoient pas seulement cette lumière visible et grossière qui frappe nos yeux de chair, c’est d’eux aussi que nous vient une lumière bien autrement subtile, qui éclaire nos esprits et dont je vais essayer de vous montrer les effets. Vous savez ce qu’était l’homme sur la Terre, il y a quelques milliers d’années, et ce qu’il est aujourd’hui. Isolé au milieu d’une nature où tout pour lui était mystère, effaré à chaque manifestation inattendue de forces incompréhensibles, il était incapable de voir dans la conduite de l’univers autre chose que le caprice ; il attribuait tous les phénomènes à l’action d’une multitude de petits génies fantasques et exigeants, et, pour agir sur le monde, il cherchait à se les concilier par des moyens analogues à ceux qu’on emploie pour gagner les bonnes grâces d’un ministre ou d’un député. Ses insuccès mêmes ne l’éclairaient pas, pas plus qu’aujourd’hui un solliciteur éconduit ne se décourage au point de cesser de solliciter. Aujourd’hui, nous ne sollicitons plus la Nature : nous lui commandons, parce que nous avons découvert quelques-uns de ses secrets et que nous en découvrons chaque jour de nouveaux. Nous lui commandons au nom de lois qu’elle ne peut récuser, parce que ce sont les siennes ; ces lois, nous ne lui demandons pas follement de les changer, nous sommes les premiers à nous y soumettre. Naturæ non imperatur nisi parendo. Quel changement ont dû subir nos âmes pour passer d’un état à l’autre ? Croit-on que, sans les leçons des astres, sous le ciel perpétuellement nuageux que je supposais tout à l’heure, elles auraient changé si vite ? La métamorphose aurait-elle été possible, ou du moins n’aurait-elle pas été beaucoup plus lente ? Et d’abord, c’est l’Astronomie qui nous a appris qu’il y a des lois. Les Chaldéens qui, les premiers, ont regardé le ciel avec quelque attention, ont bien vu que cette multitude de points lumineux n’est pas une foule confuse errant à l’aventure, mais plutôt une armée disciplinée. Sans doute les règles de cette discipline leur échappaient, mais le spectacle harmonieux de la nuit étoilée suffisait pour leur donner l’impression de la régularité, et c’était déjà beaucoup. Ces règles, d’ailleurs, Hipparque, Ptolémée, Copernic, Kepler les ont discernées l’une après l’autre, et, enfin, il est inutile de rappeler que c’est Newton qui a énoncé la plus ancienne, la plus précise, la plus simple, la plus générale de toutes les lois naturelles. Et alors, avertis par cet exemple, nous avons mieux regardé notre petit monde terrestre et, sous le désordre apparent, là aussi nous avons retrouvé l’harmonie que l’étude du Ciel nous avait fait connaître. Lui aussi est régulier, lui aussi obéit à des lois immuables, mais elles sont plus compliquées, en conflit apparent les unes avec les autres, et un œil qui n’aurait pas été accoutumé à d’autres spectacles, n’y aurait vu que le chaos et le règne du hasard ou du caprice. Si nous n’avions pas connu les astres, quelques esprits hardis auraient peut-être cherché à prévoir les phénomènes physiques ; mais leurs insuccès auraient été fréquents et ils n’auraient excité que la risée du vulgaire ; ne voyons-nous pas que, même de nos jours, les météorologistes se trompent quelquefois, et que certaines personnes sont portées à en rire. Combien de fois, les physiciens, rebutés partant d’échecs, ne se seraient- ils pas laissés aller au découragement, s’ils n’avaient eu, pour soutenir leur confiance, l’exemple éclatant du succès des astronomes ! Ce succès leur montrait que la Nature obéit à des lois ; il ne leur restait plus qu’à savoir à quelles lois ; pour cela, ils n’avaient besoin que de patience, et ils avaient le droit de demander que les sceptiques leur fissent crédit. Ce n’est pas tout : l’Astronomie ne nous a pas appris seulement qu’il y a des lois, mais que ces lois sont inéluctables, qu’on ne transige pas avec elles ; combien de temps nous aurait-il fallu pour le comprendre, si nous n’avions connu que le monde terrestre, où chaque force élémentaire nous apparaît toujours comme en lutte avec d’autres forces ? Elle nous a appris que les lois sont infiniment précises, et que si celles que nous énonçons sont approximatives, c’est parce que nous les connaissons mal. Aristote, l’esprit le plus scientifique de l’antiquité, accordait encore une part à l’accident, au hasard, et semblait penser que les lois de la Nature, au moins ici-bas, ne déterminent que les grands traits des phénomènes. Combien la précision toujours croissante des prédictions astronomiques a-t-elle contribué à faire justice d’une telle erreur qui aurait rendu la Nature inintelligible ! Mais ces lois ne sont-elles pas locales, variables d’un point à l’autre, comme celles que font les hommes ; ce qui est la vérité dans un coin de l’univers, sur notre globe, par exemple, ou dans notre petit système solaire, ne va-t-il pas devenir l’erreur un peu plus loin ? Et alors ne pourra-t-on pas se demander si les lois dépendant de l’espace ne dépendent pas aussi du temps, si elles ne sont pas de simples habitudes, transitoires, par conséquent, et éphémères ? C’est encore l’Astronomie qui va répondre à cette question. Regardons les étoiles doubles ; toutes décrivent des coniques ; ainsi, si loin que porte le télescope, il n’atteint pas les limites du domaine qui obéit à la loi de Newton. Il n’est pas jusqu’à la simplicité de cette loi qui ne soit une leçon pour nous ; que de phénomènes compliqués contenus dans les deux lignes de son énoncé ; les personnes qui ne comprennent pas la Mécanique céleste peuvent s’en rendre compte du moins en voyant la grosseur des traités consacrés à cette science ; et alors il est permis d’espérer que la complication des phénomènes physiques nous dissimule également je ne sais quelle cause simple encore inconnue. C’est donc l’Astronomie qui nous a montré quels sont les caractères généraux des lois naturelles ; mais, parmi ces caractères, il y en a un, le plus subtil et le plus important de tous, sur lequel je vous demanderai la permission d’insister un peu. Comment l’ordre de l’univers était-il compris par les anciens ; par exemple par Pythagore, Platon ou Aristote ? C’était ou un type immuable fixé une fois pour toutes, ou un idéal dont le monde cherchait à se rapprocher. C’est encore ainsi que pensait Kepler lui-même quand, par exemple, il cherchait si les distances des planètes au Soleil n’avaient pas quelque rapport avec les cinq polyèdres réguliers. Cette idée n’avait rien d’absurde, mais elle eût été stérile, puisque ce n’est pas ainsi que la Nature est faite. C’est Newton qui nous a montré qu’une loi n’est qu’une relation nécessaire entre l’état présent du monde et son état immédiatement postérieur. Toutes les autres lois, découvertes depuis, ne sont pas autre chose, ce sont, en somme, des équations différentielles ; mais c’est l’Astronomie qui nous en a fourni le premier modèle sans lequel nous aurions sans doute erré bien longtemps. C’est elle aussi qui nous a le mieux appris à nous défier des apparences. Le jour où Copernic a prouvé que ce qu’on croyait le plus stable était en mouvement, que ce qu’on croyait mobile était fixe, il nous a montré combien pouvaient être trompeurs les raisonnements enfantins qui sortent directement des données immédiates de nos sens ; certes, ses idées n’ont pas triomphé sans peine, mais, après ce triomphe, il n’est plus de préjugé si invétéré que nous ne soyons de force à secouer. Comment estimer le prix de l’arme nouvelle ainsi conquise ? Les anciens croyaient que tout était fait pour l’homme, et il faut croire que cette illusion est bien tenace, puisqu’il faut sans cesse la combattre. Il faut pourtant qu’on s’en dépouille ; ou bien on ne sera qu’un éternel myope, incapable de voir la vérité. Pour comprendre la Nature, il faut pouvoir sortir de soi-même, pour ainsi dire, et la contempler de plusieurs points de vue différents ; sans cela, on n’en connaîtra jamais qu’un côté. Or, sortir de lui- même, c’est ce que ne peut faire celui qui rapporte tout à lui-même. Qui donc nous a délivrés de cette illusion ? Ce furent ceux qui nous ont montré que la Terre n’est qu’une des plus petites planètes du Système solaire, et que le Système solaire, lui-même, n’est qu’un point imperceptible dans les espaces infinis de l’Univers stellaire. En même temps, l’Astronomie nous apprenait à ne pas nous effrayer des grands nombres, et cela était nécessaire, non seulement pour connaître le Ciel, mais pour connaître la Terre elle-même ; et cela n’était pas aussi facile qu’il nous le semble aujourd’hui. Essayons de revenir en arrière et de nous figurer ce qu’aurait pensé un Grec à qui l’on serait venu dire que la lumière rouge vibre quatre cent millions de millions de fois par seconde. Sans aucun doute, une pareille assertion lui aurait paru une pure folie et il ne se serait jamais abaissé à la contrôler. Aujourd’hui, une hypothèse ne nous paraîtra plus absurde, parce qu’elle nous oblige à imaginer des objets beaucoup plus grands ou beaucoup plus petits que ceux que nos sens sont capables de nous montrer, et nous ne comprenons plus ces scrupules qui arrêtaient nos devanciers et les empêchaient de découvrir certaines vérités simplement parce qu’ils en avaient peur. Mais pourquoi ? c’est parce que nous avons vu le Ciel s’agrandir et s’agrandir sans cesse ; parce que nous savons que le Soleil est à 150 millions de kilomètres de la Terre et que les distances des étoiles les plus rapprochées sont des centaines de mille fois plus grandes encore. Habitués à contempler l’infiniment grand, nous sommes devenus aptes à comprendre l’infiniment petit. Grâce à l’éducation qu’elle a reçue, notre imagination, comme l’œil de l’aigle que le Soleil n’éblouit pas, peut regarder la vérité face à face. Avais-je tort de dire que c’est l’Astronomie qui nous a fait une âme capable de comprendre la Nature ; que, sous un ciel toujours nébuleux et privé d’astres, la Terre elle-même eût été pour nous éternellement inintelligible ; que nous n’y aurions vu que le caprice et le désordre, et que, ne connaissant pas le monde, nous n’aurions pu l’asservir ? Quelle science eût pu être plus utile ? Et en parlant ainsi je me place au point de vue de ceux qui n’estiment que les applications pratiques. Certes, ce point de vue n’est pas le mien ; moi, au contraire, si j’admire les conquêtes de l’industrie, c’est surtout parce qu’en nous affranchissant des soucis matériels, elles donneront un jour à tous le loisir de contempler la Nature ; je ne dis pas : la Science est utile, parce qu’elle nous apprend à construire des machines ; je dis : les machines sont utiles, parce qu’en travaillant pour nous, elles nous laisseront un jour plus de temps pour faire de la science. Mais enfin il n’est pas indifférent de remarquer qu’entre les deux points de vue il n’y a pas de désaccord, et que l’homme ayant poursuivi un but désintéressé, tout le reste lui est venu par surcroît. Auguste Comte a dit, je ne sais où, qu’il serait vain de chercher à connaître la composition du Soleil, parce que cette connaissance ne pourrait être d’aucune utilité pour la Sociologie. Comment a-t-il pu avoir la vue si courte ? Ne venons-nous pas de voir que c’est par l’Astronomie que, pour parler son langage, l’humanité est passée de l’état théologique à l’état positif. Cela, il s’en est rendu compte, parce que c’était fait. Mais comment n’a-t-il pas compris que ce qui restait à faire n’était pas moins considérable et ne serait pas moins profitable ? L’Astronomie physique, qu’il semble condamner, a déjà commencé à nous donner des fruits, et elle nous en donnera bien d’autres, car elle ne date que d’hier. Tout d’abord, on a reconnu la nature du Soleil, que le fondateur du positivisme voulait nous interdire, et on y a trouvé des corps qui existent sur la Terre et qui y étaient restés inaperçus ; par exemple, l’hélium, ce gaz presque aussi léger que l’hydrogène. C’était déjà pour Comte un premier démenti. Mais à la spectroscopie, nous devons un enseignement bien autrement précieux ; dans les étoiles les plus lointaines, elle nous montre les mêmes substances ; on aurait pu se demander si les éléments terrestres n’étaient pas dus à quelque hasard qui aurait rapproché des atomes plus ténus pour en construire l’édifice plus complexe que les chimistes nomment atome ; si, dans d’autres régions de l’univers, d’autres rencontres fortuites n’avaient pas pu engendrer des édifices entièrement différents. Nous savons maintenant qu’il n’en est rien, que les lois de notre chimie sont des lois générales de la Nature et qu’elles ne doivent rien au hasard qui nous a fait naître sur la Terre. Mais, dira-t-on, l’Astronomie a donné aux autres sciences tout ce qu’elle pouvait leur donner, et maintenant que le Ciel nous a procuré les instruments qui nous permettent d’étudier la nature terrestre, il pourrait, sans danger se voiler pour toujours. Après ce que nous venons de dire, est-il besoin de répondre à cette objection ? On aurait pu raisonner de même du temps de Ptolémée ; alors aussi, on croyait tout savoir, et on avait encore presque tout à apprendre. Les astres sont des laboratoires grandioses, des creusets gigantesques, comme aucun chimiste ne pourrait en rêver. Il y règne des températures qu’il nous est impossible de réaliser. Leur seul défaut, c’est d’être un peu loin ; mais le télescope va les rapprocher de nous, et alors nous verrons comment la matière s’y comporte. Quelle bonne fortune pour le physicien et le chimiste ! La matière s’y montrera à nous sous mille états divers, depuis ces gaz raréfiés qui semblent former les nébuleuses et qui s’illuminent de je ne sais quelle lueur d’origine mystérieuse, jusqu’aux étoiles incandescentes et aux planètes si voisines et pourtant si différentes de nous. Peut-être même les astres nous apprendront-ils un jour quelque chose sur la vie ; cela semble un rêve insensé, et je ne vois pas du tout comment il pourrait se réaliser ; mais, il y a cent ans, la chimie des astres n’aurait-elle pas paru aussi un rêve insensé ? Mais bornons nos regards à des horizons moins lointains, il nous restera encore des promesses moins aléatoires et bien assez séduisantes. Si le passé nous a beaucoup donné, nous pouvons être assurés que l’avenir nous donnera plus encore. En résumé, on ne saurait croire combien la croyance à l’Astrologie a été utile à l’humanité. Si Képler et Tycho-Brahé ont pu vivre, c’est parce qu’ils vendaient à des rois naïfs des prédictions fondées sur les conjonctions des astres. Si ces princes n’avaient pas été si crédules, nous continuerions peut- être à croire que la Nature obéit au caprice, et nous croupirions encore dans l’ignorance.      CHAPITRE VII L’Histoire de la Physique mathématique Le Passé et l’Avenir de la Physique — Quel est l’état actuel de la Physique Mathématique ? Quels sont les problèmes qu’elle est amenée à se poser ? Quel est son avenir ? Son orientation est-elle sur le point de se modifier ? Le but et les méthodes de cette science vont-ils apparaître dans dix ans à nos successeurs immédiats sous le même jour qu’à nous-mêmes ; ou au contraire allons-nous assister à une transformation profonde ? Telles sont les questions que nous sommes forcés de soulever, en abordant aujourd’hui notre enquête. S’il est facile de les poser, il est difficile d’y répondre. Si nous nous sentions tentés de risquer un pronostic, nous résisterions aisément à cette tentation en songeant à toutes les sottises qu’auraient dites les savants les plus éminents d’il y a cent ans, si on leur avait demandé ce que serait la science au XIX e siècle. Ils auraient cru être hardis dans leurs prédictions, et combien, après l’événement, nous les trouverions timides. N’attendez donc de moi aucune prophétie. Mais si, comme tous les médecins prudents, je répugne à donner un pronostic, je ne puis pourtant me dispenser d’un petit diagnostic ; eh bien, oui, il y a des indices d’une crise sérieuse, comme si nous devions nous attendre à une transformation prochaine. Ne soyons pas toutefois trop inquiets. Nous sommes assurés que la malade n’en mourra pas et même nous pouvons espérer que cette crise sera salutaire, car l’histoire du passé semble nous le garantir. Cette crise en effet n’est pas la première et il importe, pour la comprendre, de se rappeler celles qui l’ont précédée. Pardonnez-moi donc un court historique.   La Physique des forces centrales. — La Physique Mathématique, nous le savons, est née de la Mécanique céleste qui l’a engendrée à la fin du XVIII e siècle, au moment où elle venait elle-même d’atteindre son complet développement. Dans ses premières années surtout, l’enfant ressemblait à sa mère d’une manière frappante. L’Univers astronomique est formé de masses, très grandes sans doute, mais séparées par des distances tellement immenses qu’elles ne nous apparaissent que comme des points matériels ; ces points s’attirent en raison inverse du carré des distances et cette attraction est la seule force qui influe sur leurs mouvements. Mais si nos sens étaient assez subtils pour nous montrer tous les détails des corps qu’étudie le physicien, le spectacle que nous y découvririons différerait à peine de celui que contemple l’astronome. Là aussi nous verrions des points matériels séparés les uns des autres par des intervalles énormes par rapport à leurs dimensions et décrivant des orbites suivant des lois régulières. Ces astres infiniment petits, ce sont les atomes. Comme les astres proprement dits, ils s’attirent ou se repoussent, et cette attraction ou cette répulsion, dirigée suivant la droite qui les joint, ne dépend que de la distance. La loi suivant laquelle cette force varie en fonction de la distance n’est peut-être pas la loi de Newton, mais c’est une loi analogue ; au lieu de l’exposant –2, nous avons probablement un exposant différent, et c’est de ce changement d’exposant que sort tout la diversité des phénomènes physiques, la variété des qualités et des sensations, tout le monde coloré et sonore qui nous entoure, toute la Nature en un mot. Telle est la conception primitive dans toute sa pureté. Il ne reste plus qu’à chercher dans les différents cas quelle valeur il convient de donner à cet exposant afin de rendre compte de tous les faits. C’est sur ce modèle que Laplace, par exemple, a construit sa belle théorie de la Capillarité ; il ne la regarde que comme un cas particulier de l’attraction, ou, comme il dit, de la pesanteur universelle, et personne ne s’étonne de la trouver au milieu de l’un des cinq volumes de la Mécanique Céleste. Plus récemment, Briot croit avoir pénétré le dernier secret de l’Optique quand il a démontré que les atomes d’éther s’attirent en raison inverse de la 6 e puissance de la distance ; et Maxwell, Maxwell lui-même, ne dit-il pas quelque part que les atomes des gaz se repoussent en raison inverse de la 5 e puissance de la distance. Nous avons l’exposant –6, ou –5 au lieu de l’exposant –2, mais c’est toujours un exposant. Parmi les théories de cette époque, une seule fait exception, celle de Fourier, pour la propagation de la chaleur ; il y a bien des atomes, agissant à distance, l’un sur l’autre ; ils s’envoient mutuellement de la chaleur, mais ils ne s’attirent pas, ils ne bougent pas. À ce point de vue, la théorie de Fourier devait apparaître aux yeux de ses contemporains, à ceux de Fourier lui- même, comme imparfaite et provisoire. Cette conception n’était pas sans grandeur ; elle était séduisante, et beaucoup d’entre nous n’y ont pas définitivement renoncé ; ils savent qu’on n’atteindra les éléments ultimes des choses qu’en débrouillant patiemment l’écheveau compliqué que nous donnent nos sens ; qu’il faut avancer pas à pas en ne négligeant aucun intermédiaire, que nos pères ont eu tort de vouloir brûler les étapes, mais ils croient que quand on arrivera à ces éléments ultimes, on y retrouvera la simplicité majestueuse de la Mécanique Céleste. Cette conception n’a pas non plus été inutile ; elle nous a rendu un service inappréciable, puisqu’elle a contribué à préciser en nous la notion fondamentale de la loi physique. Je m’explique ; comment les anciens comprenaient-ils la Loi ? C’était pour eux une harmonie interne, statique pour ainsi dire et immuable ; ou bien c’était comme un modèle que la nature s’efforçait d’imiter. Une loi, pour nous, ce n’est plus cela du tout ; c’est une relation constante entre le phénomène d’aujourd’hui et celui de demain ; en un mot, c’est une équation différentielle. Voilà la forme idéale de la loi physique ; eh bien, c’est la loi de Newton qui l’a revêtue la première. Si ensuite on a acclimaté cette forme en physique, c’est précisément en copiant autant que possible cette loi de Newton, c’est en imitant la Mécanique Céleste. C’est là, d’ailleurs, l’idée que je me suis efforcé de faire ressortir au chapitre VI.   La Physique des principes. — Néanmoins, il est arrivé un jour où la conception des forces centrales n’a plus paru suffisante, et c’est la première de ces crises dont je vous parlais tout à l’heure. Que fit-on alors ? On renonça à pénétrer dans le détail de la structure de l’univers, à isoler les pièces de ce vaste mécanisme, à analyser une à une les forces qui les mettent en branle et on se contenta de prendre pour guides certains principes généraux qui ont précisément pour objet de nous dispenser de cette étude minutieuse. Comment cela ? Supposons que nous ayons en face de nous une machine quelconque ; le rouage initial et le rouage final sont seuls apparents, mais les transmissions, les rouages intermédiaires par lesquels le mouvement se communique de l’un à l’autre sont cachés à l’intérieur et échappent à notre vue ; nous ignorons si la communication se fait par des engrenages ou par des courroies, par des bielles ou par d’autres dispositifs. Dirons-nous qu’il nous est impossible de rien comprendre à cette machine tant qu’on ne nous permettra pas de la démonter ? Vous savez bien que non et que le principe de la conservation de l’énergie suffit pour nous fixer sur le point le plus intéressant ; nous constatons aisément que la roue finale tourne dix fois moins vite que la roue initiale, puisque ces deux roues sont visibles ; nous pouvons en conclure qu’un couple appliqué à la première fera équilibre à un couple dix fois plus grand appliqué à la seconde. Point n’est besoin pour cela de pénétrer le mécanisme de cet équilibre et de savoir comment les forces se compenseront à l’intérieur de la machine ; c’est assez de s’assurer que cette compensation ne peut pas ne pas se produire. Eh bien, en présence de l’univers, le principe de la conservation de l’énergie peut nous rendre le même service. C’est aussi une machine beaucoup plus compliquée que toutes celles de l’industrie, et dont presque toutes les parties nous sont profondément cachées ; mais en observant le mouvement de celles que nous pouvons voir, nous pouvons, en nous aidant de ce principe, tirer des conclusions qui resteront vraies quels que soient les détails du mécanisme invisible qui les anime. Le principe de la conservation de l’énergie, ou principe de Mayer, est certainement le plus important, mais ce n’est pas le seul, il y en a d’autres dont nous pouvons tirer le même parti. Ce sont : Le principe de Carnot, ou principe de la dégradation de l’énergie ; Le principe de Newton, ou principe de l’égalité de l’action et de la réaction ; Le principe de la relativité, d’après lequel les lois des phénomènes physiques doivent être les mêmes, soit pour un observateur fixe, soit pour un observateur entraîné dans un mouvement de translation uniforme ; de sorte que nous n’avons et ne pouvons avoir aucun moyen de discerner si nous sommes, oui ou non, emportés dans un pareil mouvement ; Le principe de la conservation de la masse, ou principe de Lavoisier ; J’ajouterai le principe de moindre action. L’application de ces cinq ou six principes généraux aux différents phénomènes physiques suffit pour nous en apprendre ce que nous pouvons raisonnablement espérer en connaître. Le plus remarquable exemple de cette nouvelle Physique Mathématique est sans contredit la théorie électromagnétique de la Lumière de Maxwell. Qu’est-ce que l’éther, comment sont disposées ses molécules, s’attirent-elles ou se repoussent- elles ? nous n’en savons rien ; mais nous savons que ce milieu transmet à la fois les perturbations optiques et les perturbations électriques ; nous savons que cette transmission doit se faire conformément aux principes généraux de la Mécanique et cela nous suffit pour établir les équations du champ électromagnétique. Ces principes sont des résultats d’expériences fortement généralisés ; mais ils semblent emprunter à leur généralité même un degré éminent de certitude. Plus ils sont généraux, en effet, plus on a fréquemment l’occasion de les contrôler et les vérifications, en se multipliant, en prenant les formes les plus variées et les plus inattendues, finissent par ne plus laisser de place au doute.   Utilité de l’ancienne Physique. — Telle est la seconde phase de l’histoire de la Physique Mathématique et nous n’en sommes pas encore sortis. Dirons-nous que la première a été inutile, que pendant cinquante ans la science a fait fausse route et qu’il n’y a plus qu’à oublier tant d’efforts accumulés qu’une conception vicieuse condamnait d’avance à l’insuccès ? Pas le moins du monde. Croyez-vous que la seconde phase aurait pu exister sans la première ? L’hypothèse des forces centrales contenait tous les principes ; elle les entraînait comme des conséquences nécessaires ; elle entraînait et la conservation de l’énergie, et celle des masses, et l’égalité de l’action et de la réaction, et la loi de moindre action, qui apparaissaient, il est vrai, non comme des vérités expérimentales, mais comme des théorèmes ; et dont l’énoncé avait en même temps je ne sais quoi de plus précis et de moins général que sous leur forme actuelle. C’est la Physique Mathématique de nos pères qui nous a familiarisés peu à peu avec ces divers principes, qui nous a habitués à les reconnaître sous les différents vêtements dont ils se déguisent. On les a comparés aux données de l’expérience, on a vu comment il fallait en modifier l’énoncé pour les adapter à ces données ; par là on les a élargis et consolidés. On a été conduit ainsi à les regarder comme des vérités expérimentales ; la conception des forces centrales devenait alors un soutien inutile, ou plutôt une gêne, puisqu’elle faisait participer les principes de son caractère hypothétique. Les cadres ne se sont donc pas brisés parce qu’ils étaient élastiques ; mais ils se sont élargis ; nos pères, qui les avaient établis, n’avaient pas travaillé en vain ; et nous reconnaissons dans la science d’aujourd’hui les traits généraux de l’esquisse qu’ils avaient tracée.     CHAPITRE VIII La Crise actuelle de la Physique mathématique La crise nouvelle. — Allons-nous entrer maintenant dans une troisième phase ? Sommes-nous à la veille d’une seconde crise ? Ces principes sur lesquels nous avons tout bâti vont-ils s’écrouler à leur tour ? Depuis quelque temps, on peut se le demander. En m’entendant parler ainsi, vous pensez sans doute au radium, ce grand révolutionnaire des temps présents, et en effet je vais y revenir tout à l’heure ; mais il y a autre chose ; ce n’est pas seulement la conservation de l’énergie qui est en cause ; tous les autres principes sont également en danger, comme nous allons le voir en les passant successivement en revue.   Le principe de Carnot. — Commençons par le principe de Carnot. C’est le seul qui ne se présente pas comme une conséquence immédiate de l’hypothèse des forces centrales ; bien mieux, il semble sinon contredire directement cette hypothèse, du moins ne pas se concilier avec elle sans un certain effort. Si les phénomènes physiques étaient dus exclusivement aux mouvements d’atomes dont les attractions mutuelles ne dépendraient que de la distance, il semble que tous ces phénomènes devraient être réversibles ; si toutes les vitesses initiales étaient renversées, ces atomes toujours soumis aux mêmes forces devraient parcourir leurs trajectoires en sens contraire, de même que la terre décrirait dans le sens rétrograde cette même orbite elliptique qu’elle décrit dans le sens direct, si les conditions initiales de son mouvement avaient été renversées. À ce compte, si un phénomène physique est possible, le phénomène inverse doit l’être également et on doit pouvoir remonter le cours du temps. Or, il n’en est pas ainsi dans la Nature, et c’est précisément ce que le principe de Carnot nous enseigne, la chaleur peut passer du corps chaud sur le corps froid, et il est impossible ensuite de lui faire reprendre le chemin inverse et de rétablir des différences de température qui se sont effacées. Le mouvement peut être intégralement dissipé et transformé en chaleur par le frottement ; la transformation contraire ne pourra jamais se faire que d’une manière partielle. On s’est efforcé de concilier cette apparente contradiction. Si le monde tend vers l’uniformité, ce n’est pas parce que ses parties ultimes, d’abord dissemblables, tendent à devenir de moins en moins différentes, c’est parce que, se déplaçant au hasard, elles finissent par se mélanger. Pour un œil qui distinguerait tous les éléments, la variété resterait toujours aussi grande ; chaque grain de cette poussière conserve son originalité et ne se modèle pas sur ses voisins ; mais comme le mélange devient de plus en plus intime, nos sens grossiers n’aperçoivent plus que l’uniformité. Voilà pourquoi, par exemple, les températures tendent à se niveler sans qu’il soit possible de revenir en arrière. Qu’une goutte de vin tombe dans un verre d’eau ; quelle que soit la loi du mouvement interne du liquide, nous le verrons bientôt se colorer d’une teinte rosée uniforme et à partir de ce moment on aura beau agiter le vase, le vin et l’eau ne paraîtront plus pouvoir se séparer. Ainsi voici quel serait le type du phénomène physique irréversible : cacher un grain d’orge dans un tas de blé, c’est facile ; l’y retrouver ensuite et l’en faire sortir, c’est pratiquement impossible. Tout cela, Maxwell et Boltzmann l’ont expliqué, mais celui qui l’a vu le plus nettement, dans un livre trop peu lu parce qu’il est un peu difficile à lire, c’est Gibbs, dans ses principes de Mécanique Statistique. Pour ceux qui se placent à ce point de vue, le principe de Carnot n’est qu’un principe imparfait, une sorte de concession à l’infirmité de nos sens ; c’est parce que nos yeux sont trop grossiers que nous ne distinguons pas les éléments du mélange ; c’est parce que nos mains sont trop grossières que nous ne savons pas les forcer à se séparer ; le démon imaginaire de Maxwell, qui peut trier les molécules une à une, saurait bien contraindre le monde à revenir en arrière. Y peut-il revenir de lui-même, cela n’est pas impossible, cela n’est qu’infiniment peu probable ; il y a des chances pour que nous attendions longtemps le concours des circonstances qui permettraient une rétrogradation ; mais, tôt ou tard, elles se réaliseront, après des années dont il faudrait des millions de chiffres pour écrire le nombre. Ces réserves, cependant, restaient tous théoriques, elles n’étaient pas bien inquiétantes, et le principe de Carnot conservait toute sa valeur pratique. Mais voici que la scène change. Le biologiste, armé de son microscope, a remarqué il y a longtemps dans ses préparations des mouvements désordonnés des petites particules en suspension ; c’est le mouvement brownien. Il a cru d’abord que c’était un phénomène vital, mais il a vu bientôt que les corps inanimés ne dansaient pas avec moins d’ardeur que les autres ; il a alors passé la main aux physiciens. Malheureusement, les physiciens se sont longtemps désintéressés de cette question ; on concentre de la lumière pour éclairer la préparation microscopique, pensaient-ils ; la lumière ne va pas sans chaleur, de là des inégalités de température, et dans le liquide des courants intérieurs qui produisent les mouvements dont on nous parle. M. Gouy eut l’idée d’y regarder de plus près et il vit, ou crut voir, que cette explication est insoutenable, que les mouvements deviennent d’autant plus vifs que les particules sont plus petites, mais qu’ils ne sont pas influencés par le mode d’éclairage. Si alors ces mouvements ne cessent pas, ou plutôt renaissent sans cesse, sans rien emprunter à une source extérieure d’énergie ; que devons-nous croire ? Nous ne devons pas, sans doute, renoncer pour cela à la conservation de l’énergie, mais nous voyons sous nos yeux tantôt le mouvement se transformer en chaleur par le frottement, tantôt la chaleur se changer inversement en mouvement, et cela sans que rien ne se perde, puisque le mouvement dure toujours. C’est le contraire du principe de Carnot. S’il en est ainsi, pour voir le monde revenir en arrière, nous n’avons plus besoin de l’œil infiniment subtil du démon de Maxwell, notre microscope nous suffit. Les corps trop gros, ceux qui ont, par exemple, un dixième de millimètre, sont heurtés de tous les côtés par les atomes en mouvement, mais ils ne bougent pas parce que ces chocs sont très nombreux et que la loi du hasard veut qu’ils se compensent ; mais les particules plus petites reçoivent trop peu de chocs pour que cette compensation se fasse à coup sûr et sont incessamment ballottées. Et voilà déjà l’un de nos principes en péril.   Le principe de relativité. — Venons au principe de relativité ; celui-là non seulement est confirmé par l’expérience quotidienne, non seulement il est une conséquence nécessaire de l’hypothèse des forces centrales, mais il s’impose à notre bon sens d’une façon irrésistible ; et pourtant lui aussi est battu en brèche. Supposons deux corps électrisés ; bien qu’ils nous semblent en repos, ils sont l’un et l’autre entraînés par le mouvement de la Terre ; une charge électrique en mouvement, Rowland nous l’a appris, équivaut à un courant ; ces deux corps chargés équivaudront donc à deux courants parallèles et de même sens et ces deux courants devront s’attirer. En mesurant cette attraction, nous mesurerons la vitesse de la Terre ; non pas sa vitesse par rapport au Soleil ou aux Étoiles fixes, mais sa vitesse absolue. Je sais bien ce qu’on va dire, ce n’est pas sa vitesse absolue que l’on mesure, c’est sa vitesse par rapport à l’éther. Que cela est peu satisfaisant ! Ne voit-on pas que du principe ainsi compris on ne pourra plus rien tirer ? Il ne pourrait plus rien nous apprendre justement parce qu’il ne craindrait plus aucun démenti. Si nous parvenons à mesurer quelque chose, nous serons toujours libres de dire que ce n’est pas la vitesse absolue, et si ce n’est pas la vitesse par rapport à l’éther, cela pourra toujours être la vitesse par rapport à quelque nouveau fluide inconnu dont nous remplirions l’espace. Aussi bien l’expérience s’est chargée de ruiner cette interprétation du principe de relativité ; toutes les tentatives pour mesurer la vitesse de la Terre par rapport à l’éther ont abouti à des résultats négatifs. Cette fois la physique expérimentale a été plus fidèle aux principes que la Physique Mathématique ; les théoriciens en auraient fait bon marché afin de mettre en concordance leurs autres vues générales ; mais l’expérience s’est obstinée à le confirmer. On a varié les moyens, enfin Michelson a poussé la précision jusqu’à ses dernières limites ; rien n’y a fait. C’est précisément pour expliquer cette obstination que les mathématiciens sont forcés aujourd’hui de déployer toute leur ingéniosité. Leur tâche n’était pas facile, et si Lorentz s’en est tiré, ce n’est qu’en accumulant les hypothèses. L’idée la plus ingénieuse a été celle du temps local. Imaginons deux observateurs qui veulent régler leurs montres par des signaux optiques ; ils échangent des signaux, mais comme ils savent que la transmission de la lumière n’est pas instantanée, ils prennent soin de les croiser. Quand la station B aperçoit le signal de la station A, son horloge ne doit pas marquer la même heure que celle de la station A au moment de l’émission du signal, mais cette heure augmentée d’une constante représentant la durée de la transmission. Supposons, par exemple, que la station A envoie son signal quand son horloge marque l’heure zéro, et que la station B l’aperçoive quand son horloge marque l’heure t. Les horloges sont réglées si le retard égal à t représente la durée de la transmission, et pour le vérifier la station B expédie à son tour un signal quand son horloge marque zéro, la station A doit alors l’apercevoir quand son horloge marque t. Les montres sont alors réglées. Et en effet elles marquent la même heure au même instant physique, mais à une condition, c’est que les deux stations soient fixes. Dans le cas contraire, la durée de la transmission ne sera pas la même dans les deux sens, puisque la station A par exemple marche au devant de la perturbation optique émanée de B, tandis que la station B fuit devant la perturbation émanée de A. Les montres réglées de la sorte ne marqueront donc pas le temps vrai, elles marqueront ce qu’on peut appeler le temps local, de sorte que l’une d’elles retardera sur l’autre. Peu importe, puisque nous n’avons aucun moyen de nous en apercevoir. Tous les phénomènes qui se produiront en A par exemple seront en retard, mais tous le seront également, et l’observateur ne s’en apercevra pas puisque sa montre retarde ; ainsi, comme le veut le principe de relativité, il n’aura aucun moyen de savoir s’il est en repos ou en mouvement absolu. Cela malheureusement ne suffit pas, et il faut des hypothèses complémentaires ; il faut admettre que les corps en mouvement subissent une contraction uniforme dans le sens du mouvement. L’un des diamètres de la Terre par exemple est raccourci de par suite du mouvement de notre planète, tandis que l’autre diamètre conserve sa longueur normale. Ainsi se trouvent compensées les dernières petites différences. Et puis il y a encore l’hypothèse sur les forces. Les forces, quelle que soit leur origine, la pesanteur comme l’élasticité, seraient réduites dans une certaine proportion, dans un monde animé d’une translation uniforme, ou plutôt c’est ce qui arriverait pour les composantes perpendiculaires à la translation : les composantes parallèles ne changeraient pas. Reprenons alors notre exemple de deux corps électrisés ; ces corps se repoussent, mais en même temps, si tout est entraîné dans une translation uniforme, ils équivalent à deux courants parallèles et de même sens qui s’attirent. Cette attraction électrodynamique se retranche donc de la répulsion électrostatique et la répulsion totale est plus faible que si les deux corps étaient en repos. Mais comme, pour mesurer cette répulsion, nous devons l’équilibrer par une autre force, et que toutes ces autres forces sont réduites dans la même proportion, nous ne nous apercevons de rien. Tout semble ainsi arrangé, mais tous les doutes sont-ils dissipés ? Qu’arriverait-il si on pouvait communiquer par des signaux qui ne seraient plus lumineux et dont la vitesse de propagation différerait de celle de la lumière ? Si, après avoir réglé les montres par le procédé optique, on voulait vérifier le réglage à l’aide de ces nouveaux signaux, on constaterait des divergences qui mettraient en évidence la translation commune des deux stations. Et de pareils signaux sont-ils inconcevables, si l’on admet avec Laplace que la gravitation universelle se transmet un million de fois plus vite que la lumière ? Ainsi le principe de relativité a été dans ces derniers temps vaillamment défendu, mais l’énergie même de la défense prouve combien l’attaque était sérieuse.   Le principe de Newton. — Parlons maintenant du principe de Newton, sur l’égalité de l’action et de la réaction. Celui-ci est intimement lié au précédent et il semble bien que la chute de l’un entraînerait celle de l’autre. Aussi ne devons-nous pas nous étonner de retrouver ici les mêmes difficultés. J’ai déjà montré plus haut que les nouvelles théories faisaient bon marché de ce principe. Les phénomènes électriques, d’après la théorie de Lorentz, sont dus aux déplacements de petites particules chargées appelées électrons et plongées dans le milieu que nous nommons éther. Les mouvements de ces électrons produisent des perturbations dans l’éther avoisinant ; ces perturbations se propagent dans tous les sens avec la vitesse de la lumière, et à leur tour d’autres électrons, primitivement en repos, se trouvent ébranlés quand la perturbation atteint les parties de l’éther qui les touchent. Les électrons agissent donc les uns sur les autres, mais cette action n’est pas directe, elle se fait par l’intermédiaire de l’éther. Dans ces conditions peut-il y avoir compensation entre l’action et la réaction, du moins pour un observateur qui ne tiendrait compte que des mouvements de la matière, c’est-à-dire des électrons, et qui ignorerait ceux de l’éther qu’il ne peut pas voir ? Évidemment non. Quand même la compensation serait exacte elle ne saurait être simultanée. La perturbation se propage avec une vitesse finie ; elle n’atteint donc le second électron que quand le premier est depuis longtemps rentré dans le repos. Ce second électron subira donc, avec un retard, l’action du premier, mais certainement à ce moment il ne réagira pas sur lui puisqu’autour de ce premier électron rien ne bouge plus. L’analyse des faits va nous permettre de préciser davantage. Imaginons, par exemple, un excitateur de Hertz comme ceux que l’on emploie en télégraphie sans fil ? il envoie de l’énergie dans tous les sens ; mais nous pouvons le munir d’un miroir parabolique, comme l’a fait Hertz avec ses plus petits excitateurs, afin de renvoyer toute l’énergie produite dans une seule direction. Qu’arrive-t-il alors, d’après la théorie ? c’est que l’appareil va reculer, comme s’il était un canon et si l’énergie qu’il a projetée était un boulet, et cela est contraire au principe de Newton, puisque notre projectile ici n’a pas de masse, ce n’est pas de la matière, c’est de l’énergie. Il en est encore de même d’ailleurs avec un phare pourvu d’un réflecteur puisque la lumière n’est autre chose qu’une perturbation du champ électromagnétique. Ce phare devra reculer comme si la lumière qu’il envoie était un projectile. Quelle est la force qui doit produire ce recul ? c’est ce qu’on a appelé la pression Maxwell-Bartholdi ; elle est très petite et on a eu bien du mal à la mettre en évidence avec les radiomètres les plus sensibles ; mais il suffit qu’elle existe. Si toute l’énergie issue de notre excitateur va tomber sur un récepteur, celui-ci se comportera comme s’il avait reçu un choc mécanique, qui représentera en un sens la compensation du recul de l’excitateur ; la réaction sera égale à l’action, mais elle ne sera pas simultanée, le récepteur avancera, mais pas au moment où l’excitateur reculera. Si l’énergie se propage indéfiniment sans rencontrer de récepteur, la compensation ne se fera jamais. Dira-t-on que l’espace qui sépare l’excitateur du récepteur et que la perturbation doit parcourir pour aller de l’un à l’autre n’est pas vide, qu’il est rempli, non seulement d’éther, mais d’air, ou même, dans les espaces interplanétaires, de quelque fluide subtil, mais encore pondérable ; que cette matière subit le choc comme le récepteur au moment où l’énergie l’atteint et recule à son tour quand la perturbation la quitte ? Cela sauverait le principe de Newton, mais cela n’est pas vrai ; si l’énergie en se propageant restait toujours attachée à quelque substratum matériel, la matière en mouvement entraînerait la lumière avec elle et Fizeau a démontré qu’il n’en est rien, au moins pour l’air. C’est ce que Michelson et Morley ont confirmé depuis. On peut supposer aussi que les mouvements de la matière proprement dite sont exactement compensés par ceux de l’éther, mais cela nous amènerait aux mêmes réflexions que tout à l’heure. Le principe ainsi entendu pourra tout expliquer, puisque, quels que soient les mouvements visibles, on aura toujours la faculté d’imaginer des mouvements hypothétiques qui les compensent. Mais s’il peut tout expliquer, c’est qu’il ne nous permet de rien prévoir, il ne nous permet pas de choisir entre les différentes hypothèses possibles, puisqu’il explique tout d’avance. Il devient donc inutile. Et puis les suppositions qu’il faudrait faire sur les mouvements de l’éther ne sont pas très satisfaisantes. Si les charges électriques doublent, il serait naturel d’imaginer que les vitesses des divers atomes d’éther doublent aussi, et, pour la compensation, il faut que la vitesse moyenne de l’éther quadruple. C’est pourquoi j’ai longtemps pensé que ces conséquences de la théorie, contraires au principe de Newton, finiraient un jour par être abandonnées et pourtant les expériences récentes sur les mouvements des électrons issus du radium semblent plutôt les confirmer.   Le principe de Lavoisier. — J’arrive au principe de Lavoisier sur la conservation des masses. Certes, c’en est un auquel on ne saurait toucher sans ébranler la mécanique. Et maintenant certaines personnes pensent qu’il ne nous paraît vrai que parce qu’on ne considère en mécanique que des vitesses modérées, mais qu’il cesserait de l’être pour des corps animés de vitesses comparables à celle de la lumière. Or, ces vitesses, on croit maintenant les avoir réalisées ; les rayons cathodiques et ceux du radium seraient formés de particules très petites ou d’électrons qui se déplaceraient avec des vitesses, plus petites sans doute que celle de la lumière, mais qui en seraient le dixième ou le tiers. Ces rayons peuvent être déviés soit par un champ électrique, soit par un champ magnétique, et on peut, en comparant ces déviations, mesurer à la fois la vitesse des électrons et leur masse (ou plutôt le rapport de leur masse à leur charge). Mais quand on a vu que ces vitesses se rapprochaient de celle de la lumière, on s’est avisé qu’une correction était nécessaire. Ces molécules, étant électrisées, ne peuvent se déplacer sans ébranler l’éther ; pour les mettre en mouvement, il faut triompher d’une double inertie, de celle de la molécule elle-même et de celle de l’éther. La masse totale ou apparente que l’on mesure se compose donc de deux parties : la masse réelle ou mécanique de la molécule, et la masse électrodynamique représentant l’inertie de l’éther. Les calculs d’Abraham et les expériences de Kauffman ont alors montré que la masse mécanique proprement dite est nulle et que la masse des électrons, ou au moins des électrons négatifs, est d’origine exclusivement électrodynamique. Voilà qui nous force à changer la définition de la masse ; nous ne pouvons plus distinguer la masse mécanique et la masse électrodynamique, parce qu’alors la première s’évanouirait ; il n’y a pas d’autre masse que l’inertie électrodynamique ; mais dans ce cas la masse ne peut plus être constante, elle augmente avec la vitesse ; et même, elle dépend de la direction, et un corps animé d’une vitesse notable n’opposera pas la même inertie aux forces qui tendent à le dévier de sa route, et à celles qui tendent à accélérer ou à retarder sa marche. Il y a bien encore une ressource : les éléments ultimes des corps sont des électrons, les uns chargés négativement, les autres chargés positivement. Les électrons négatifs n’ont pas de masse, c’est entendu ; mais les électrons positifs, d’après le peu qu’on en sait, semblent beaucoup plus gros. Peut- être ont-ils, outre leur masse électrodynamique, une vraie masse mécanique. La véritable masse d’un corps, ce serait alors la somme des masses mécaniques de ses électrons positifs, les électrons négatifs ne compteraient pas ; la masse ainsi définie pourrait encore être constante. Hélas ! cette ressource aussi nous échappe. Rappelons-nous ce que nous avons dit au sujet du principe de relativité et des efforts faits pour la sauver. Et ce n’est pas seulement un principe qu’il s’agit de sauver, ce sont les résultats indubitables des expériences de Michelson. Eh bien, ainsi que nous l’avons vu plus haut, pour rendre compte de ces résultats, Lorentz a été obligé de supposer que toutes les forces, quelle que soit leur origine, étaient réduites dans la même proportion dans un milieu animé d’une translation uniforme ; ce n’est pas assez, il ne suffit pas que cela ait lieu pour les forces réelles, il faut encore qu’il en soit de même pour les forces d’inertie ; il faut donc, dit-il, que les masses de toutes les particules soient influencées par une translation au même degré que les masses électromagnétiques des électrons. Ainsi les masses mécaniques doivent varier d’après les mêmes lois que les masses électrodynamiques ; elles ne peuvent donc pas être constantes. Ai-je besoin de faire observer que la chute du principe de Lavoisier entraîne celle du principe de Newton. Ce dernier signifie que le centre de gravité d’un système isolé se meut en ligne droite ; mais s’il n’y a plus de masse constante, il n’y a plus de centre de gravité, on ne sait même plus ce que c’est. C’est pourquoi j’ai dit plus haut que les expériences sur les rayons cathodiques avaient paru justifier les doutes de Lorentz au sujet du principe de Newton. De tous ces résultats, s’ils se confirmaient, sortirait une mécanique entièrement nouvelle qui serait surtout caractérisée par ce fait qu’aucune vitesse ne pourrait dépasser celle de la lumière  2 pas plus qu’aucune température ne peut tomber au-dessous du zéro absolu. Pour un observateur, entraîné lui-même dans une translation dont il ne se doute pas, aucune vitesse apparente ne pourrait non plus dépasser celle de la lumière ; et ce serait là une contradiction, si l’on ne se rappelait que cet observateur ne se servirait pas des mêmes horloges qu’un observateur fixe, mais bien d’horloges marquant le « temps local ». Nous voici alors en face d’une question que je me borne à poser. S’il n’y a plus de masse, que devient la loi de Newton ? La masse a deux aspects, c’est à la fois un coefficient d’inertie et une masse attirante entrant comme facteur dans l’attraction newtonienne. Si le coefficient d’inertie n’est pas constant, la masse attirante pourra-t-elle l’être ? Voilà la question.   Le principe de Mayer. — Du moins le principe de la conservation de l’énergie nous restait encore et celui-là paraissait plus solide. Vous rappellerai-je comment il fut à son tour jeté en discrédit ? L’événement a fait plus de bruit que les précédents et il est dans toutes les mémoires. Dès les premiers travaux de Becquerel et surtout quand les Curie eurent découvert le radium, on vit que tout corps radio-actif était une source inépuisable de radiation. Son activité semblait subsister sans altération à travers les mois et les années. C’était déjà là une entorse aux principes ; ces radiations, c’était en effet de l’énergie, et de ce même morceau de radium, il en sortait et il en sortait toujours. Mais ces quantités d’énergie étaient trop faibles pour être mesurées ; du moins on le croyait et on ne s’en inquiétait pas trop. La scène changea lorsque Curie s’avisa de mettre le radium dans un calorimètre ; alors on vit que la quantité de chaleur incessamment créée était très notable. Les explications proposées furent nombreuses ; mais en pareille matière on ne peut pas dire qu’abondance de biens ne nuit pas ; tant que l’une d’elles n’aura pas triomphé des autres, nous ne pourrons pas être sûrs qu’aucune d’entre elles soit bonne. Depuis quelque temps toutefois, une de ces explications semble prendre le dessus et on peut raisonnablement espérer que nous tenons la clef du mystère. Sir W. Ramsay a cherché à montrer que le radium se transforme, qu’il renferme une provision d’énergie énorme, mais non inépuisable. La transformation du radium produirait alors un million de fois plus de chaleur que toutes les transformations connues ; le radium s’épuiserait en 1250 ans ; c’est bien court, mais vous voyez que nous sommes du moins certain d’être fixés sur ce point d’ici quelques centaines d’années. En attendant nos doutes subsistent.      CHAPITRE IX L’Avenir de la Physique mathématique Les principes et l’expérience. — Au milieu de tant de ruines, que reste-t-il debout ? Le principe de moindre action est intact jusqu’ici, et Larmor paraît croire qu’il survivra longtemps aux autres ; il est en effet plus vague et plus général encore. En présence de cette débâcle générale des principes, quelle attitude va prendre la Physique Mathématique ? Et d’abord, avant de trop s’émouvoir il convient de se demander si tout cela est bien vrai. Toutes ces dérogations aux principes, on ne les rencontre que dans les infiniment petits ; il faut le microscope pour voir le mouvement brownien ; les électrons sont bien légers ; le radium est bien rare et on en a jamais que quelques milligrammes à la fois ; et alors on peut se demander si, à côté de l’infiniment petit qu’on a vu, il n’y avait pas un autre infiniment petit qu’on ne voyait pas et qui faisait contrepoids au premier. Il y a donc là une question préjudicielle, et à ce qu’il semble l’expérience seule peut la résoudre. Nous n’aurons donc qu’à passer la main aux expérimentateurs, et en attendant qu’ils aient tranché définitivement le débat, à ne pas nous préoccuper de ces inquiétants problèmes, et à continuer tranquillement notre œuvre comme si les principes étaient encore incontestés. Certes, nous avons beaucoup à faire sans sortir du domaine où on peut les appliquer en toute sûreté ; nous avons de quoi employer notre activité pendant cette période de doutes.   Le rôle de l’analyste. — Et pourtant ces doutes, est-il bien vrai que nous ne puissions rien faire pour en débarrasser la science ? Il faut bien le dire ce n’est pas seulement la physique expérimentale qui les a fait naître, la physique mathématique y a bien contribué pour sa part. Ce sont les expérimentateurs qui ont vu le radium dégager de l’énergie, mais ce sont les théoriciens qui ont mis en évidence toutes les difficultés soulevées par la propagation de la lumière à travers un milieu en mouvement ; sans eux il est probable qu’on ne s’en serait pas avisé. Eh bien, alors, s’ils ont fait de leur mieux pour nous mettre dans l’embarras, il convient aussi qu’ils nous aident à en sortir. Il faut qu’ils soumettent à la critique toutes ces vues nouvelles que je viens d’esquisser devant vous et qu’ils n’abandonnent les principes qu’après avoir fait un effort loyal pour les sauver. Que peuvent-ils faire dans ce sens ? C’est ce que je vais chercher à expliquer. Il s’agit avant tout d’obtenir une théorie plus satisfaisante de l’électrodynamique des corps en mouvement ? C’est là surtout, je l’ai suffisamment montré plus haut, que les difficultés s’accumulent ; on a beau entasser les hypothèses, on ne peut satisfaire à tous les principes à la fois ; on n’a pu réussir jusqu’ici à sauvegarder les uns qu’à la condition de sacrifier les autres ; mais tout espoir d’obtenir de meilleurs résultats n’est pas encore perdu. Prenons donc la théorie de Lorentz, retournons-la dans tous les sens ; modifions-la peu à peu, et tout s’arrangera peut-être. Ainsi au lieu de supposer que les corps en mouvement subissent une contraction dans le sens du mouvement et que cette contraction est la même quelle que soit la nature de ces corps et les forces auxquelles ils sont d’ailleurs soumis, ne pourrait-on pas faire une hypothèse plus simple et plus naturelle ? On pourrait imaginer, par exemple, que c’est l’éther qui se modifie quand il se trouve en mouvement relatif par rapport au milieu matériel qui le pénètre, que, quand il est ainsi modifié, il ne transmet plus les perturbations avec la même vitesse dans tous les sens. Il transmettrait plus rapidement celles qui se propageraient parallèlement au mouvement du milieu, soit dans le même sens, soit dans le sens contraire, et moins rapidement celles qui se propageraient perpendiculairement. Les surfaces d’ondes ne seraient plus des sphères, mais des ellipsoïdes et on pourrait se passer de cette extraordinaire contraction de tous les corps. Je ne cite cela qu’à titre d’exemple, car les modifications que l’on pourrait essayer seraient évidemment susceptibles de varier à l’infini.   L’aberration et l’astronomie. — Il est possible aussi que l’astronomie nous fournisse un jour des données sur ce point ; c’est elle, en somme, qui a soulevé la question en nous faisant connaître le phénomène de l’aberration de la lumière. Si on fait brutalement la théorie de l’aberration on arrive à un résultat bien curieux. Les positions apparentes des étoiles diffèrent de leurs positions réelles, à cause du mouvement de la Terre, et comme ce mouvement est variable, ces positions apparentes varient. La position réelle nous ne pouvons la connaître, mais nous pouvons observer les variations de la position apparente. Les observations de l’aberration nous montrent donc non le mouvement de la Terre, mais les variations de ce mouvement, elles ne peuvent par conséquent nous renseigner sur le mouvement absolu de la Terre. C’est du moins ce qui est vrai en première approximation, mais il n’en serait plus de même si on pouvait apprécier les millièmes de seconde. On verrait alors que l’amplitude de l’oscillation dépend non seulement de la variation du mouvement, variation qui est bien connue, puisque c’est le mouvement de notre globe sur son orbite elliptique, mais de la valeur moyenne de ce mouvement de sorte que la constante de l’aberration ne serait pas tout à fait la même pour toutes les Étoiles, et que les différences nous feraient connaître le mouvement absolu de la Terre dans l’espace. Ce serait là, sous une autre forme, la ruine du principe de relativité. Nous sommes loin, il est vrai, d’apprécier le millième de seconde, mais après tout, disent quelques personnes, la vitesse absolue totale de la Terre est peut-être beaucoup plus grande que sa vitesse relative par rapport au Soleil ; si elle était par exemple de 300 kilomètres par seconde au lieu de 30, cela suffirait pour que le phénomène devînt observable. Je crois qu’en raisonnant ainsi on admet une théorie trop simpliste de l’aberration ; Michelson nous a montré, je vous l’ai dit, que les procédés physiques sont impuissants à mettre en évidence le mouvement absolu ; je suis persuadé qu’il en sera de même des procédés astronomiques quelque loin que l’on pousse la précision. Quoiqu’il en soit, les données que l’Astronomie nous fournira dans ce sens seront un jour précieuses pour le physicien. En attendant, je crois que les théoriciens, se rappelant l’expérience de Michelson, peuvent escompter un résultat négatif, et qu’ils feraient œuvre utile en construisant une théorie de l’aberration qui en rendrait compte d’avance.   Les électrons et les spectres. — Cette dynamique des électrons peut être abordée par bien des côtés, mais parmi les chemins qui y conduisent, il y en a un qui a été quelque peu négligé, et c’est pourtant un de ceux qui nous promettent le plus de surprises. Ce sont les mouvements des électrons qui produisent les raies des spectres d’émission ; ce qui le prouve, c’est le phénomène de Zeeman ; dans un corps incandescent, ce qui vibre est sensible à l’aimant, donc électrisé. C’est là un premier point très important, mais on n’est pas entré plus avant ; pourquoi les raies du spectre sont-elles distribuées d’après une loi régulière ? Ces lois ont été étudiées par les expérimentateurs dans leurs moindres détails ; elles sont très précises et relativement simples. La première étude de ces distributions fait songer aux harmoniques que l’on rencontre en acoustique ; mais la différence est grande ; non seulement les nombres de vibrations ne sont pas les multiples successifs d’un même nombre ; mais nous ne retrouvons même rien d’analogue aux racines de ces équations transcendantes auxquelles nous conduisent tant de problèmes de Physique Mathématique : celui des vibrations d’un corps élastique de forme quelconque, celui des oscillations hertziennes dans un excitateur de forme quelconque, le problème de Fourier pour le refroidissement d’un corps solide. Les lois sont plus simples, mais elles sont de toute autre nature et pour ne citer qu’une de ces différences, pour les harmoniques d’ordre élevé le nombre des vibrations tend vers une limite finie ; au lieu de croître indéfiniment. De cela on n’a pas encore rendu compte, et je crois que c’est là un des plus importants secrets de la nature. Un physicien japonais M. Nagaoka a récemment proposé une explication ; les atomes seraient, d’après lui, formés d’un gros électron positif entouré d’un anneau formé d’un très grand nombre d’électrons négatifs très petits. Telle la planète Saturne avec son anneau. C’est là une tentative fort intéressante, mais pas encore tout à fait satisfaisante ; cette tentative il faudrait la renouveler. Nous pénétrerons pour ainsi dire dans l’intimité de la matière. Et au point de vue particulier qui nous occupe aujourd’hui, quand nous saurons pourquoi les vibrations des corps incandescents diffèrent ainsi des vibrations élastiques ordinaires, pourquoi les électrons ne se comportent pas comme la matière qui nous est familière, nous comprendrons mieux la dynamique des électrons et il nous sera peut-être plus facile de la concilier avec les principes.   Les conventions devant l’expérience. — Supposons maintenant que tous ces efforts échouent, et, tout compte fait, je ne le crois pas ; que faudra- t-il faire ? Faudra-t-il chercher à raccommoder les principes ébréchés, en donnant ce que nous autres Français nous appelons un coup de pouce ? Cela est évidemment toujours possible et je ne retire rien de ce que j’ai dit plus haut. N’avez-vous pas écrit, pourriez-vous me dire si vous vouliez me chercher querelle, n’avez-vous pas écrit que les principes, quoique d’origine expérimentale, sont maintenant hors des atteintes de l’expérience parce qu’ils sont devenus des conventions ? Et maintenant vous venez nous dire que les conquêtes les plus récentes de l’expérience mettent ces principes en danger. Eh bien, j’avais raison autrefois et je n’ai pas tort aujourd’hui. J’avais raison autrefois et ce qui se passe maintenant en est une preuve nouvelle. Prenons par exemple l’expérience calorimétrique de Curie sur le radium. Est-il possible de la concilier avec le principe de la conservation de l’énergie ? On l’a tenté de bien des manières ; mais il y en a une entre autres que je voudrais vous faire remarquer ; ce n’est pas l’explication qui tend aujourd’hui à prévaloir, mais c’est une de celles qui ont été proposées. On a supposé que le radium n’était qu’un intermédiaire, qu’il ne faisait qu’emmagasiner des radiations de nature inconnue qui sillonnaient l’espace dans tous les sens, en traversant tous les corps, sauf le radium, sans être altérées par ce passage et sans exercer sur eux aucune action. Le radium seul leur prendrait un peu de leur énergie et il nous la rendrait ensuite sous diverses formes. Quelle explication avantageuse et combien elle est commode ! D’abord elle est invérifiable et par là même irréfutable. Ensuite elle peut servir pour rendre compte de n’importe quelle dérogation au principe de Mayer ; elle répond d’avance non seulement à l’objection de Curie, mais à toutes les objections que les expérimentateurs futurs pourraient accumuler. Cette énergie nouvelle et inconnue pourra servir à tout. C’est bien ce que j’avais dit, et avec cela on nous montre bien que notre principe est hors des atteintes de l’expérience. Et après, qu’avons-nous gagné à ce coup de pouce ? Le principe est intact, mais à quoi désormais peut-il servir ? Il nous permettait de prévoir que dans telle ou telle circonstance nous pouvions compter sur telle quantité totale d’énergie ; il nous limitait ; mais maintenant qu’on met à notre disposition cette provision indéfinie d’énergie nouvelle, nous ne sommes plus limités par rien ; et, comme je l’ai écrit dans Science et Hypothèse, si un principe cesse d’être fécond, l’expérience, sans le contredire directement, l’aura cependant condamné.   La physique mathématique future. — Ce n’est donc pas cela qu’il faudrait faire ; nous devrions rebâtir à neuf. Si l’on était acculé à cette nécessité, nous pourrions d’ailleurs nous en consoler. Il ne faudrait pas en conclure que la science ne peut faire qu’un travail de Pénélope, qu’elle ne peut élever que des constructions éphémères qu’elle est bientôt forcée de démolir de fond en comble de ses propres mains. Comme je vous l’ai dit, nous avons déjà passé par une crise semblable. Je vous ai montré que, dans la seconde physique mathématique, celle des principes, on retrouve les traces de la première, celle des forces centrales ; il en sera encore de même si nous devons en connaître une troisième. Tel l’animal qui mue, qui brise sa carapace trop étroite et s’en fait une plus jeune ; sous son enveloppe nouvelle, on reconnaîtra aisément les traits essentiels de l’organisme qui ont subsisté. Dans quel sens allons-nous nous étendre, nous ne pouvons le prévoir ; peut-être est-ce la théorie cinétique des gaz qui va prendre du développement et servir de modèle aux autres. Alors les faits qui d’abord nous apparaissaient comme simples ne seraient plus que les résultantes d’un très grand nombre de faits élémentaires que les lois seules du hasard feraient concourir à un même but. La loi physique alors prendrait un aspect entièrement nouveau ; ce ne serait plus seulement une équation différentielle, elle prendrait le caractère d’une loi statistique. Peut-être aussi devrons-nous construire toute une mécanique nouvelle que nous ne faisons qu’entrevoir, où, l’inertie croissant avec la vitesse, la vitesse de la lumière deviendrait une limite infranchissable. La mécanique vulgaire, plus simple, resterait une première approximation puisqu’elle serait vraie pour les vitesses qui ne seraient pas très grandes, de sorte qu’on retrouverait encore l’ancienne dynamique sous la nouvelle. Nous n’aurions pas à regretter d’avoir cru aux principes, et même, comme les vitesses trop grandes pour les anciennes formules ne seraient jamais qu’exceptionnelles, le plus sûr dans la pratique serait encore de faire comme si on continuait à y croire. Ils sont si utiles qu’il faudrait leur conserver une place. Vouloir les exclure tout à fait, ce serait se priver d’une arme précieuse. Je me hâte de dire, pour terminer, que nous n’en sommes pas là et que rien ne prouve encore qu’ils ne sortiront pas de la lutte victorieux et intacts  3 .     TROISIÈME PARTIE LA VALEUR OBJECTIVE DE LA SCIENCE   CHAPITRE X La Science est-elle artificielle ? § 1. LA PHILOSOPHIE DE M. LE ROY Voilà bien des raisons d’être sceptiques ; devons-nous pousser ce scepticisme jusqu’au bout ou nous arrêter en chemin. Aller jusqu’au bout, c’est la solution la plus tentante, la plus commode et c’est celle que bien des personnes ont adoptée, désespérant de rien sauver du naufrage. Parmi les écrits qui s’inspirent de cette tendance il convient de placer en première ligne ceux de M. Le Roy. Ce penseur n’est pas seulement un philosophe et un écrivain du plus grand mérite, mais il a acquis une connaissance approfondie des sciences exactes et des sciences physiques, et même il a fait preuve de précieuses facultés d’invention mathématique. Résumons en quelques mots sa doctrine qui a donné lieu à de nombreuses discussions. La Science n’est faite que de conventions, et c’est uniquement à cette circonstance qu’elle doit son apparente certitude ; les faits scientifiques, et a fortiori, les lois sont l’œuvre artificielle du savant ; la science ne peut donc rien nous apprendre de la vérité, elle ne peut nous servir que de règle d’action. On reconnaît là la théorie philosophique connue sous le nom de nominalisme ; tout n’est pas faux dans cette théorie ; il faut lui réserver son légitime domaine, mais il ne faudrait pas non plus l’en laisser sortir. Ce n’est pas tout, la doctrine de M. Le Roy n’est pas seulement nominaliste ; elle a encore un autre caractère qu’elle doit sans doute à l’influence de M. Bergson, elle est anti-intellectualiste. Pour M. Le Roy, l’intelligence déforme tout ce qu’elle touche, et cela est plus vrai encore de son instrument nécessaire « le discours ». Il n’y a de réalité que dans nos impressions fugitives et changeantes, et cette réalité même, dès qu’on la touche, s’évanouit. Et cependant, M. Le Roy n’est pas un sceptique ; s’il regarde l’intelligence comme irrémédiablement impuissante, ce n’est que pour faire la part plus large à d’autres sources de connaissance, au cœur par exemple, au sentiment, à l’instinct ou à la foi. Quelle que soit mon estime pour le talent de M. Le Roy, quelle que soit l’ingéniosité de cette thèse, je ne saurais l’accepter tout entière. Certes je suis d’accord sur bien des points avec M. Le Roy, et il a même cité, à l’appui de sa manière de voir, divers passages de mes écrits que je ne suis nullement disposé à récuser. Je ne m’en crois que plus tenu d’expliquer pourquoi je ne puis le suivre jusqu’au bout. M. Le Roy se plaint souvent d’être accusé de scepticisme. Il ne pouvait pas ne pas l’être, encore que cette accusation soit probablement injuste. Les apparences ne sont-elles pas contre lui ? Nominaliste de doctrine, mais réaliste de cœur, il semble n’échapper au nominalisme absolu que par un acte de foi désespéré. C’est que la philosophie anti-intellectualiste, en récusant l’analyse et « le discours », se condamne par cela même à être intransmissible, c’est une philosophie essentiellement interne, ou tout au moins ce qui peut s’en transmettre, ce ne sont que les négations ; comment s’étonner alors que pour un observateur extérieur, elle prenne la figure du scepticisme ? C’est là le point faible de cette philosophie ; si elle veut rester fidèle à elle-même, elle épuise sa puissance dans une négation et un cri d’enthousiasme. Cette négation et ce cri, chaque auteur peut les répéter, en varier la forme, mais sans y rien ajouter. Et encore, ne serait-il pas plus conséquent en se taisant ? Voyons, vous avez écrit de longs articles, il a bien fallu pour cela que vous vous serviez de mots. Et par là n’avez-vous pas été beaucoup plus « discursif » et par conséquent beaucoup plus loin de la vie et de la vérité, que l’animal qui vit tout simplement sans philosopher ? Ne serait-ce pas cet animal qui est le véritable philosophe ? Pourtant, de ce qu’aucun peintre n’a pu faire un portrait tout à fait ressemblant, devons-nous conclure que la meilleure peinture soit de ne pas peindre ? Quand un zoologiste dissèque un animal, certainement il « l’altère ». Oui, en le disséquant, il se condamne à n’en jamais tout connaître ; mais en ne le disséquant pas, il se condamnerait à n’en jamais rien connaître et par conséquent à n’en jamais rien dire. Certes il y a dans l’homme d’autres forces que son intelligence, personne n’a jamais été assez fou pour le nier. Ces forces aveugles, le premier venu les fait agir ou les laisse agir ; le philosophe doit en parler ; pour en parler, il doit en connaître le peu qu’on en peut connaître, il doit donc les regarder agir. Comment ? avec quels yeux ? sinon avec son intelligence ? Le cœur, l’instinct, peuvent la guider, mais non la rendre inutile ; ils peuvent diriger le regard, mais non remplacer l’œil. Que le cœur soit l’ouvrier et que l’intelligence ne soit que l’instrument, on peut y consentir. Encore est-ce un instrument dont on ne peut se passer, sinon pour agir, au moins pour philosopher. C’est pour cela qu’une philosophie vraiment anti-intellectualiste est impossible. Peut-être devrons-nous conclure au « primat » de l’action ; toujours est-il que c’est notre intelligence qui conclura ainsi ; en cédant le pas à l’action, elle gardera de la sorte la supériorité du roseau pensant. C’est là aussi un « primat » qui n’est pas à dédaigner. Qu’on me pardonne ces courtes réflexions et qu’on me pardonne aussi de les faire si courtes et d’avoir à peine effleuré la question. Le procès de l’intellectualisme n’est pas le sujet que je veux traiter : je veux parler de la science et pour elle, il n’y a pas de doute ; par définition, pour ainsi dire, elle sera intellectualiste ou elle ne sera pas. Ce qu’il s’agit précisément de savoir, c’est si elle sera. § 2. — LA SCIENCE, RÈGLE D’ACTION Pour M. Le Roy, la science n’est qu’une règle d’action. Nous sommes impuissants à rien connaître et pourtant nous sommes embarqués, il nous faut agir, et à tout hasard, nous nous sommes fixé des règles. C’est l’ensemble de ces règles que l’on appelle la science. C’est ainsi que les hommes, désireux de se divertir, ont institué des règles de jeux, comme celle du tric-trac, par exemple, qui pourraient, mieux que la science elle-même, s’appuyer de la preuve du consentement universel. C’est ainsi également que, hors d’état de choisir, mais forcé de choisir, on jette en l’air une pièce de monnaie pour tirer à pile ou face. La règle du tric-trac est bien une règle d’action comme la science, mais croit-on que la comparaison soit juste et ne voit-on pas la différence ? Les règles du jeu sont des conventions arbitraires et on aurait pu adopter la convention contraire qui n’aurait pas été moins bonne. Au contraire, la Science est une règle d’action qui réussit, au moins généralement et, j’ajoute, tandis que la règle contraire n’aurait pas réussi. Si je dis, pour faire de l’hydrogène, faites agir un acide sur du zinc, je formule une règle qui réussit ; j’aurais pu dire, faites agir de l’eau distillée sur de l’or ; cela aurait été aussi une règle, seulement elle n’aurait pas réussi. Si donc les « recettes » scientifiques ont une valeur, comme règle d’action, c’est que nous savons qu’elles réussissent, du moins en général. Mais savoir cela, c’est bien savoir quelque chose et alors pourquoi venez- vous nous dire que nous ne pouvons rien connaître ? La science prévoit, et c’est parce qu’elle prévoit qu’elle peut être utile et servir de règle d’action. J’entends bien que ses prévisions sont souvent démenties par l’événement ; cela prouve que la science est imparfaite et si j’ajoute qu’elle le restera toujours, je suis certain que c’est là une prévision qui, elle du moins, ne sera jamais démentie. Toujours est-il que le savant se trompe moins souvent qu’un prophète qui prédirait au hasard. D’autre part le progrès est lent, mais continu, de sorte que les savants, quoique de plus en plus hardis, sont de moins en moins déçus. C’est peu, mais c’est assez. Je sais bien que M. Le Roy a dit quelque part que la Science se trompait plus souvent qu’on ne croit, que les comètes jouaient parfois des tours aux astronomes, que les savants, qui apparemment sont des hommes, ne parlaient pas volontiers de leurs insuccès et que, s’ils en parlaient, ils devraient compter plus de défaites que de victoires. Ce jour-là, M. Le Roy a évidemment dépassé sa pensée. Si la Science ne réussissait pas, elle ne pourrait servir de règle d’action ; d’où tirerait-elle sa valeur ? De ce qu’elle est « vécue », c’est-à-dire de ce que nous l’aimons et que nous croyons en elle ? Les alchimistes avaient des recettes pour faire de l’or, ils les aimaient et avaient foi en elles, et pourtant ce sont nos recettes qui sont les bonnes, bien que notre foi soit moins vive, parce qu’elles réussissent. Il n’y a pas moyen d’échapper à ce dilemme ; ou bien la science ne permet pas de prévoir, et alors elle est sans valeur comme règle d’action ; ou bien elle permet de prévoir d’une façon plus ou moins imparfaite, et alors elle n’est pas sans valeur comme moyen de connaissance. On ne peut même pas dire que l’action soit le but de la science ; devons- nous condamner les études faites sur l’étoile Sirius, sous prétexte que nous n’exercerons probablement jamais aucune action sur cet astre ? À mes yeux au contraire, c’est la connaissance qui est le but, et l’action qui est le moyen. Si je me félicite du développement industriel, ce n’est pas seulement parce qu’il fournit un argument facile aux avocats de la science ; c’est surtout parce qu’il donne au savant la foi en lui-même et aussi parce qu’il lui offre un champ d’expérience immense, où il se heurte à des forces trop colossales pour qu’il y ait moyen de donner un coup de pouce. Sans ce lest, qui sait s’il ne quitterait pas terre, séduit par le mirage de quelque scholastique nouvelle, ou s’il ne désespérerait pas en croyant qu’il n’a fait qu’un rêve ? § 3. — LE FAIT BRUT ET LE FAIT SCIENTIFIQUE Ce qu’il y avait de plus paradoxal dans la thèse de M. Le Roy, c’était cette affirmation que le savant crée le fait ; c’en était en même temps le point essentiel et c’est un de ceux qui ont été le plus discutés. Peut-être, dit-il (je crois bien que c’était là une concession), n’est-ce pas le savant qui crée le fait brut ; c’est du moins lui qui crée le fait scientifique. Cette distinction du fait brut et du fait scientifique ne me paraît pas illégitime par elle-même. Mais je me plains d’abord que la frontière n’ait été tracée ni d’une manière exacte, ni d’une manière précise ; et ensuite que l’auteur ait semblé sous-entendre que le fait brut, n’étant pas scientifique, est en dehors de la science. Enfin je ne puis admettre que le savant crée librement le fait scientifique puisque c’est le fait brut qui le lui impose. Les exemples donnés par M. Le Roy m’ont beaucoup étonné. Le premier est emprunté à la notion d’atome. L’atome choisi comme exemple de fait ! j’avoue que ce choix m’a tellement déconcerté que je préfère n’en rien dire. J’ai évidemment mal compris la pensée de l’auteur et je ne saurais la discuter avec fruit. Le second cas pris pour exemple est celui d’une éclipse où le phénomène brut est un jeu d’ombre et de lumière, mais où l’astronome ne peut intervenir sans apporter deux éléments étrangers, à savoir une horloge et la loi de Newton. Enfin M. Le Roy cite la rotation de la Terre ; on lui a répondu : mais ce n’est pas un fait, et il a répliqué : c’en était un pour Galilée qui l’affirmait comme pour l’inquisiteur qui le niait. Toujours est-il que ce n’est pas un fait au même titre que ceux dont nous venons de parler et que leur donner le même nom, c’est s’exposer à bien des confusions. Voilà donc quatre degrés : 1° Il fait noir, dit l’ignorant. 2° L’éclipse a eu lieu à neuf heures, dit l’astronome. 3° L’éclipse a eu lieu à l’heure que l’on peut déduire des tables construites d’après les lois de Newton, dit-il encore. 4° Cela tient à ce que la terre tourne autour du soleil, dit enfin Galilée. Où est donc la frontière entre le fait brut et le fait scientifique ? À lire M. Le Roy on croirait que c’est entre le premier et le deuxième échelon, mais qui ne voit qu’il y a plus de distance du deuxième au troisième, et plus encore du troisième au quatrième. Qu’on me permette de citer deux exemples qui nous éclaireront peut- être un peu. J’observe la déviation d’un galvanomètre à l’aide d’un miroir mobile qui projette une image lumineuse ou spot sur une échelle divisée. Le fait brut c’est : je vois le spot se déplacer sur l’échelle, et le fait scientifique c’est : il passe un courant dans le circuit. Ou bien encore : quand je fais une expérience, je dois faire subir au résultat certaines corrections, parce que je sais que j’ai dû commettre des erreurs. Ces erreurs sont de deux sortes, les unes sont accidentelles et je les corrigerai en prenant la moyenne ; les autres sont systématiques et je ne pourrai les corriger que par une étude approfondie de leurs causes. Le premier résultat obtenu est alors le fait brut, tandis que le fait scientifique c’est le résultat final après les corrections terminées. En réfléchissant à ce dernier exemple, nous sommes conduits à subdiviser notre second échelon, et au lieu de dire : 2. L’éclipse a eu lieu à neuf heures, nous dirons : 2 a. L’éclipse a eu lieu quand mon horloge marquait neuf heures, et 2 b. Ma pendule retardant de dix minutes, l’éclipse a eu lieu à neuf heures dix. Et ce n’est pas tout : le premier échelon aussi doit être subdivisé, et ce n’est pas entre ces deux subdivisions que la distance sera la moins grande ; entre l’impression d’obscurité que ressent le témoin d’une éclipse, et l’affirmation ; il fait noir, que cette impression lui arrache, il est nécessaire de distinguer. En un sens c’est la première qui est le seul vrai fait brut, et la seconde est déjà une sorte de fait scientifique. Voilà donc maintenant notre échelle qui a six échelons, et bien qu’il n’y ait aucune raison pour s’arrêter à ce chiffre, nous nous y tiendrons. Ce qui me frappe d’abord c’est ceci. Au premier de nos six échelons, le fait, encore complètement brut, est pour ainsi dire individuel, il est complètement distinct de tous les autres faits possibles. Dès le second échelon, il n’en est déjà plus de même. L’énoncé du fait pourrait convenir à une infinité d’autres faits. Aussitôt qu’intervient le langage, je ne dispose plus que d’un nombre fini de termes pour exprimer les nuances en nombre infini que mes impressions pourraient revêtir. Quand je dis : il fait noir, cela exprime bien les impressions que j’éprouve en assistant à une éclipse ; mais dans l’obscurité même, on pourrait imaginer une foule de nuances, et si au lieu de celle qui s’est réalisée effectivement, c’eût été une nuance peu différente qui se fût produite, j’aurais cependant encore énoncé cet autre fait en disant : il fait noir. Seconde remarque : même au second échelon, l’énoncé d’un fait ne peut être que vrai ou faux. Il n’en serait pas de même pour une proposition quelconque ; si cette proposition est l’énoncé d’une convention, on ne peut pas dire que cet énoncé soit vrai, au sens propre du mot, puisqu’il ne saurait être vrai malgré moi et qu’il est vrai seulement parce je veux qu’il le soit. Quand je dis, par exemple, l’unité de longueur est le mètre, c’est un décret que je porte, ce n’est pas une constatation qui s’impose à moi. Il en est de même, comme je crois l’avoir montré ailleurs, quand il s’agit par exemple du postulatum d’Euclide. Quand on me demande : fait-il noir ? je sais toujours si je dois répondre oui ou non. Bien qu’une infinité de faits possibles soient susceptibles de ce même énoncé : il fait noir, je saurai toujours si le fait réalisé rentre ou ne rentre pas parmi ceux qui répondent à cet énoncé. Les faits sont classés en catégories, et si l’on me demande si le fait que je constate rentre ou ne rentre pas dans telle catégorie, je n’hésiterai pas. Sans doute cette classification comporte assez d’arbitraire pour laisser à la liberté ou au caprice de l’homme une large part. En un mot, cette classification est une convention. Cette convention étant donnée, si l’on me demande : tel fait est-il vrai ? je saurai toujours que répondre, et ma réponse me sera imposée par le témoignage de mes sens. Si donc pendant une éclipse, on demande : fait-il noir ? tout le monde répondra oui. Sans doute ceux-là répondraient non qui parleraient une langue où clair se dirait noir et où noir se dirait clair. Mais quelle importance cela peut-il avoir ? De même, en mathématiques, quand j’ai posé les définitions, et les postulats qui sont des conventions, un théorème ne peut plus être que vrai ou faux. Mais pour répondre à cette question : ce théorème est-il vrai ? ce n’est plus au témoignage de mes sens que j’aurai recours, mais bien au raisonnement. L’énoncé d’un fait est toujours vérifiable et pour la vérification nous avons recours soit au témoignage de nos sens, soit au souvenir de ce témoignage. C’est là proprement ce qui caractérise un fait. Si vous me posez la question : tel fait est-il vrai ? je commencerai par vous demander, s’il y a lieu, de préciser les conventions, par vous demander, en d’autres termes, quelle langue vous avez parlé ; puis une fois fixé sur ce point, j’interrogerai mes sens et je répondrai, oui ou non. Mais la réponse, ce seront mes sens qui l’auront faite, ce ne sera pas vous en me disant : c’est en anglais ou c’est en français que je vous ai parlé. Y a-t-il quelque chose à changer à tout cela quand nous passons aux échelons suivants ? Quand j’observe un galvanomètre, ainsi que je le disais tout à l’heure, si je demande à un visiteur ignorant : le courant passe-t-il ? il va regarder le fil pour tâcher d’y voir passer quelque chose ; mais si je pose la même question à mon aide qui comprend ma langue, il saura que cela veut dire : le spot se déplace-t-il ? et il regardera sur l’échelle. Quelle différence y a-t-il alors entre l’énoncé d’un fait brut et l’énoncé d’un fait scientifique ? il y a la même différence qu’entre l’énoncé d’un même fait brut dans la langue française et dans la langue allemande. L’énoncé scientifique est la traduction de l’énoncé brut dans un langage qui se distingue surtout de l’allemand vulgaire ou du français vulgaire parce qu’il est parlé par un bien moins grand nombre de personnes. N’allons pas trop vite cependant. Pour mesurer un courant, je puis me servir d’un très grand nombre de types de galvanomètres ou encore d’un électrodynamomètre. Et alors quand je dirai : il règne dans ce circuit un courant de tant d’ampères, cela voudra dire : si j’adapte à ce circuit tel galvanomètre je verrai le spot venir à la division a ; mais cela voudra dire également : si j’adapte à ce circuit tel électrodynamomètre, je verrai le spot venir à la division b. Et cela voudra dire encore beaucoup d’autres choses, car le courant peut se manifester non seulement par des effets mécaniques, mais par des effets chimiques, thermiques, lumineux, etc. Voilà donc un même énoncé qui convient à un très grand nombre de faits absolument différents. Pourquoi ? C’est parce que j’admets une loi d’après laquelle toutes les fois que tel effet mécanique se produira, tel effet chimique se produira de son côté. Des expériences antérieures très nombreuses ne m’ont jamais montré cette loi en défaut et alors je me suis rendu compte que je pourrais exprimer par le même énoncé deux faits aussi invariablement liés l’un à l’autre. Quand on me demandera : le courant passe-t-il ? je pourrai comprendre que cela veut dire : tel effet mécanique va-t-il se produire ? mais je pourrai comprendre aussi : tel effet chimique va-t-il se produire ? Je vérifierai donc soit l’existence de l’effet mécanique, soit celle de l’effet chimique, cela sera indifférent, puisque dans un cas comme dans l’autre la réponse doit être la même. Et si la loi venait un jour à être reconnue fausse ? Si on s’apercevait que la concordance des deux effets mécanique et chimique n’est pas constante ? Ce jour-là, il faudrait changer le langage scientifique pour en faire disparaître une grave ambiguïté. Et puis après ? Croit-on que le langage ordinaire, à l’aide duquel on exprime les faits de la vie quotidienne, soit exempt d’ambiguïté ? En conclura-t-on que les faits de la vie quotidienne sont l’œuvre des grammairiens ? Vous me demandez : y a-t-il un courant ? je cherche si l’effet mécanique existe, je le constate et je réponds : oui, il y a un courant. Vous comprenez à la fois que cela veut dire que l’effet mécanique existe, et que l’effet chimique, que je n’ai pas recherché, existe également. Imaginons maintenant que, par impossible, la loi que nous croyions vraie, ne le soit pas et que l’effet chimique n’ait pas existé dans ce cas. Dans cette hypothèse il y aura deux faits distincts, l’un directement observé et qui est vrai, l’autre inféré et qui est faux. On pourra dire à la rigueur que le second, c’est nous qui l’aurons créé. De sorte que la part de collaboration personnelle de l’homme dans la création du fait scientifique, c’est l’erreur. Mais si nous pouvons dire que le fait en question est faux, n’est-ce pas justement parce qu’il n’est pas une création libre et arbitraire de notre esprit, une convention déguisée, auquel cas il ne serait ni vrai ni faux ? Et en effet il était vérifiable, je n’avais pas fait la vérification, mais j’aurais pu la faire. Si j’ai fait une fausse réponse, c’est parce que j’ai voulu répondre trop vite, sans avoir interrogé la nature qui seule savait le secret. Quand, après une expérience, je corrige les erreurs accidentelles et systématiques pour dégager le fait scientifique, c’est encore la même chose ; le fait scientifique ne sera jamais que le fait brut traduit dans un autre langage. Quand je dirai : il est telle heure, cela sera une manière abrégée de dire : il y a telle relation entre l’heure que marque ma pendule, et l’heure qu’elle marquait au moment du passage de tel astre et de tel autre astre au méridien. Et une fois cette convention de langage adoptée par tous, quand on me demandera : est-il telle heure ? il ne dépendra pas de moi de répondre oui ou non. Passons à l’avant-dernier échelon : l’éclipse a lieu à l’heure donnée par les tables déduites des lois de Newton. C’est encore une convention de langage qui est parfaitement claire pour ceux qui connaissent la Mécanique Céleste ou simplement pour ceux qui possèdent les tables calculées par les Astronomes. On me demande : l’éclipse a-t-elle lieu à l’heure prédite ? Je cherche dans la Connaissance des Temps, je vois que l’éclipse était annoncée pour neuf heures et je comprends que la question voulait dire : l’éclipse a-t-elle eu lieu à neuf heures ? Là encore nous n’avons rien à changer à nos conclusions. Le fait scientifique n’est que le fait brut traduit dans un langage commode. Il est vrai qu’au dernier échelon les choses changent. La terre tourne-t- elle ? Est-ce là un fait vérifiable ? Galilée et le Grand-Inquisiteur pouvaient- ils, pour se mettre d’accord, en appeler au témoignage de leurs sens ? Au contraire, ils étaient d’accord sur les apparences, et quelles qu’eussent été les expériences accumulées, ils seraient restés d’accord sur les apparences sans s’accorder jamais sur leur interprétation. C’est même pour cela qu’ils ont été obligés d’avoir recours à des procédés de discussion aussi peu scientifiques. C’est pourquoi j’estime qu’ils n’étaient pas en désaccord sur un fait ; nous n’avons pas le droit de donner le même nom à la rotation de la Terre, qui était l’objet de leur discussion, et aux faits bruts ou scientifiques que nous avons passés en revue jusqu’ici. Après ce qui précède, il semble superflu de rechercher si le fait brut est en dehors de la science, car il ne peut pas y avoir, ni science sans fait scientifique, ni fait scientifique sans fait brut, puisque le premier n’est que la traduction du second. Et alors a-t-on le droit de dire que le savant crée le fait scientifique ? Tout d’abord il ne le crée pas ex nihilo puisqu’il le fait avec le fait brut. Par conséquent il ne le fait pas librement et comme il veut. Quelque habile que soit l’ouvrier, sa liberté est toujours limitée par les propriétés de la matière première sur laquelle il opère. Que voulez-vous dire après tout quand vous parlez de cette création libre du fait scientifique et quand vous prenez pour exemple l’astronome qui intervient activement dans le phénomène de l’éclipse en apportant son horloge ? Voulez-vous dire : l’éclipse a eu lieu à neuf heures ? mais si l’astronome avait voulu qu’elle eût lieu à dix heures, cela ne tenait qu’à lui, il n’avait qu’à avancer son horloge d’une heure. Mais l’astronome, en faisant cette mauvaise plaisanterie, aurait évidemment abusé d’une équivoque. Quand il me dit : l’éclipse a eu lieu à neuf heures, j’entends que neuf heures est l’heure déduite de l’indication brute de la pendule, par la série des corrections d’usage. S’il m’a donné seulement cette indication brute, ou s’il a fait des corrections contraires aux règles habituelles, il a changé sans me prévenir le langage convenu. Si au contraire il a eu soin de me prévenir, je n’ai pas à me plaindre, mais alors c’est toujours le même fait exprimé dans un autre langage. En résumé, tout ce que crée le savant dans un fait, c’est le langage dans lequel il l’énonce. S’il prédit un fait, il emploiera ce langage, et pour tous ceux qui sauront le parler et l’entendre, sa prédiction est exempte d’ambiguïté. D’ailleurs une fois cette prédiction lancée, il ne dépend pas évidemment de lui qu’elle se réalise ou qu’elle ne se réalise pas. Que reste-t-il alors de la thèse de M. Le Roy ? Il reste ceci : le savant intervient activement en choisissant les faits qui méritent d’être observés. Un fait isolé n’a par lui-même aucun intérêt ; il en prend un si l’on a lieu de penser qu’il pourra aider à en prédire d’autres ; ou bien encore si, ayant été prédit, sa vérification est la confirmation d’une loi. Qui choisira les faits qui, répondant à ces conditions, méritent le droit de cité dans la science ? C’est la libre activité du savant. Et ce n’est pas tout. J’ai dit que le fait scientifique est la traduction d’un fait brut dans un certain langage ; j’aurais dû ajouter que tout fait scientifique est formé de plusieurs faits bruts. Les exemples cités plus haut le montrent assez bien. Par exemple pour l’heure de l’éclipse mon horloge marquait l’heure α à l’instant de l’éclipse ; elle marquait l’heure β au moment du dernier passage au méridien d’une certaine étoile que nous prendrons pour origine des ascensions droites ; elle marquait l’heure γ au moment de l’avant-dernier passage de cette même étoile. Voilà trois faits distincts (encore remarquera-t-on que chacun d’eux résulte lui-même de deux faits bruts simultanés ; mais passons sur cette remarque). Au lieu de cela je dis : l’éclipse a eu lieu à l’heure , et les trois faits se trouvent concentrés en un fait scientifique unique. J’ai jugé que les trois lectures α, β, γ faites sur mon horloge à trois moments différents étaient dépourvues d’intérêt et que la seule chose intéressante était la combinaison de ces trois lectures. Dans ce jugement on retrouve la libre activité de mon esprit. Mais j’ai ainsi épuisé ma puissance ; je ne puis pas faire que cette combinaison ait telle valeur et non telle autre, puisque je ne puis influer ni sur la valeur de α, ni sur celle de β, ni sur celle de γ qui me sont imposées comme faits bruts. En résumé les faits sont des faits, et s’il arrive qu’ils sont conformes à une prédiction ce n’est pas par un effet de notre libre activité. Il n’y a pas de frontière précise entre le fait brut et le fait scientifique ; on peut dire seulement que tel énoncé de fait est plus brut ou, au contraire, plus scientifique que tel autre. § 4. — LE « NOMINALISME » ET « L’INVARIANT UNIVERSEL » Si des faits nous passons aux lois, il est clair que la part de la libre activité du savant deviendra beaucoup plus grande. Mais M. Le Roy ne la fait-il pas encore trop grande ? C’est ce que nous allons examiner. Rappelons d’abord les exemples qu’il a donnés. Quand je dis : le phosphore fond à 44°, je crois énoncer une loi ; en réalité c’est la définition même du phosphore ; si l’on venait à découvrir un corps qui, jouissant d’ailleurs de toutes les propriétés du phosphore ne fondrait pas à 44°, on lui donnerait un autre nom, voilà tout, et la loi resterait vraie. De même quand je dis : les corps graves en chute libre parcourent des espaces proportionnels aux carrés des temps, je ne fais que donner la définition de la chute libre. Toutes les fois que la condition ne sera pas remplie, je dirai que la chute n’est pas libre, de sorte que la loi ne pourra jamais être en défaut. Il est clair que si les lois se réduisaient à cela, elles ne pourraient servir à prédire ; elles ne pourraient donc servir à rien, ni comme moyen de connaissance, ni comme principe d’action. Quand je dis : le phosphore fond à 44°, je veux dire par là : tout corps qui jouit de telle ou telle propriété (à savoir de toutes les propriétés du phosphore, sauf le point de fusion) fond à 44°. Entendue ainsi, ma proposition est bien une loi, et cette loi pourra m’être utile, car si je rencontre un corps jouissant de ces propriétés, je pourrai prédire qu’il fondra à 44°. Sans doute, on pourra découvrir que la loi est fausse. On lira alors dans les traités de chimie : « il existe deux corps que les chimistes ont longtemps confondus sous le nom de phosphore ; ces deux corps ne diffèrent que par leur point de fusion ». Ce ne serait évidemment pas la première fois que les chimistes en arriveraient à séparer deux corps qu’ils n’auraient d’abord pas su distinguer ; tels par exemple le néodyme et le praséodyme, longtemps confondus sous le nom de didyme. Je ne crois pas que les chimistes redoutent beaucoup que pareille mésaventure arrive jamais au phosphore. Et si par impossible elle arrivait, les deux corps n’auraient probablement pas identiquement même densité, identiquement même chaleur spécifique, etc., de sorte qu’après avoir déterminé avec soin la densité par exemple, on pourra encore prévoir le point de fusion. Peu importe d’ailleurs ; il suffit de remarquer qu’il y a une loi, et que cette loi, vraie ou fausse, ne se réduit pas à une tautologie. Dira-t-on que, si nous ne connaissons pas sur la Terre un corps qui ne fonde pas à 44° tout en ayant les autres propriétés du phosphore, nous ne pouvons pas savoir s’il n’en existe pas sur d’autres planètes ? Sans doute, cela peut se soutenir, et on conclurait alors que la loi en question, qui peut nous servir de règle d’action à nous qui habitons la Terre, n’a cependant aucune valeur générale au point de vue de la connaissance, et ne doit son intérêt qu’au hasard qui nous a placés sur ce globe. C’est possible, mais s’il en était ainsi, la loi n’aurait pas de valeur, non pas parce qu’elle se réduirait à une convention, mais parce qu’elle serait fausse. De même en ce qui concerne la chute des corps. Il ne me servirait à rien d’avoir donné le nom de chute libre aux chutes qui se produisent conformément à la loi de Galilée, si je ne savais d’autre part que, dans telles circonstances, la chute sera probablement libre ou à peu près libre. Cela alors est une loi qui peut être vraie ou fausse, mais qui ne se réduit plus à une convention. Je suppose que les astronomes viennent de découvrir que les astres n’obéissent pas exactement à la loi de Newton. Ils auront le choix entre deux attitudes ; ils pourront dire que la gravitation ne varie pas exactement comme l’inverse du carré des distances, ou bien ils pourront dire que la gravitation n’est pas la seule force qui agisse sur les astres et qu’il vient s’y ajouter une force de nature différente. Dans ce second cas, on considérera la loi de Newton comme la définition de la gravitation. Ce sera l’attitude nominaliste. Le choix entre les deux attitudes reste libre, et se fait par des considérations de commodité, quoique ces considérations soient le plus souvent tellement puissantes qu’il reste pratiquement peu de chose de cette liberté. Nous pouvons décomposer cette proposition : (1) les astres suivent la loi de Newton, en deux autres : (2) la gravitation suit la loi de Newton, (3) la gravitation est la seule force qui agisse sur les astres. Dans ce cas la proposition (2) n’est plus qu’une définition et échappe au contrôle de l’expérience ; mais alors ce sera sur la proposition (3) que ce contrôle pourra s’exercer. Il le faut bien puisque la proposition résultante (1) prédit des faits bruts vérifiables. C’est grâce à ces artifices que par un nominalisme inconscient, les savants ont élevé au-dessus des lois ce qu’ils appellent des principes. Quand une loi a reçu une confirmation suffisante de l’expérience, nous pouvons adopter deux attitudes, ou bien laisser cette loi dans la mêlée ; elle restera soumise alors à une incessante révision qui sans aucun doute finira par démontrer qu’elle n’est qu’approximative. Ou bien on peut l’ériger en principe, en adoptant des conventions telles que la proposition soit certainement vraie. Pour cela on procède toujours de la même manière. La loi primitive énonçait une relation entre deux faits bruts A et B ; on introduit entre ces deux faits bruts un intermédiaire abstrait C, plus ou moins fictif (tel était dans l’exemple précédent l’entité impalpable de la gravitation). Et alors nous avons une relation entre A et C que nous pouvons supposer rigoureuse et qui est le principe ; et une autre entre C et B qui reste une loi révisable. Le principe, désormais cristallisé pour ainsi dire, n’est plus soumis au contrôle de l’expérience. Il n’est pas vrai ou faux, il est commode. On a trouvé souvent de grands avantages à procéder de la sorte, mais il est clair que si toutes les lois avaient été transformées en principes, il ne serait rien resté de la science. Toute loi peut se décomposer en un principe et une loi, mais il est bien clair par là que, si loin que l’on pousse cette décomposition, il restera toujours des lois. Le nominalisme a donc des bornes et c’est ce qu’on pourrait méconnaître, si on prenait à la lettre les assertions de M. Le Roy. Une revue rapide des sciences nous fera mieux comprendre quelles sont ces bornes. L’attitude nominaliste n’est justifiée que quand elle est commode ; quand l’est-elle ? L’expérience nous fait connaître des relations entre les corps ; c’est là le fait brut ; ces relations sont extrêmement compliquées. Au lieu d’envisager directement la relation du corps A et du corps B, nous introduisons entre eux un intermédiaire qui est l’espace, et nous envisageons trois relations distinctes : celle du corps A avec la figure A′ de l’espace, celle du corps B avec la figure B′ de l’espace, celle des deux figures A′ et B′ entre elles. Pourquoi ce détour est-il avantageux ? Parce que la relation de A et B était compliquée, mais différait peu de celle de A′ et B′ qui est simple : de sorte que cette relation compliquée peut être remplacée par la relation simple entre A′ et B′, et par deux autres relations qui nous font connaître que les différences entre A et A′ d’une part, entre B et B′ d’autre part sont très petites. Par exemple si A et B sont deux corps solides naturels qui se déplacent en se déformant légèrement, nous envisagerons deux figures invariables mobiles A′ et B′. Les lois des déplacements relatifs de ces figures A′ et B′ seront très simples ; ce seront celles de la géométrie. Et nous ajouterons ensuite que le corps A, qui diffère toujours très peu de A′, se dilate par l’effet de la chaleur et fléchit par l’effet de l’élasticité. Ces dilatations et ces flexions, justement parce qu’elles sont très petites, seront pour notre esprit d’une étude relativement facile. S’imagine-t-on à quelles complications de langage il aurait fallu se résigner si on avait voulu comprendre dans un même énoncé le déplacement du solide, sa dilatation et sa flexion ? La relation entre A et B était une loi brute, et elle s’est décomposée ; nous avons maintenant deux lois qui expriment les relations de A et A′ ; de B et B′ et un principe qui exprime celle de A′ avec B′. C’est l’ensemble de ces principes que l’on appelle géométrie. Deux remarques encore. Nous avons une relation entre deux corps A et B que nous avons remplacée par une relation entre deux figures A′ et B′ ; mais cette même relation entre les deux mêmes figures A′ et B′ aurait pu tout aussi bien remplacer avantageusement une relation entre deux autres corps A′′ et B′′, entièrement différents de A et B. Et cela de bien des manières. Si l’on n’avait pas inventé les principes et la géométrie, après avoir étudié la relation de A et B, il faudrait recommencer ab ovo l’étude de la relation de A′′ à B′′. C’est pour cela que la géométrie est si précieuse. Une relation géométrique peut remplacer avantageusement une relation qui, considérée à l’état brut, devrait être regardée comme mécanique, elle peut en remplacer une autre qui devrait être regardée comme optique, etc. Et alors qu’on ne vienne pas dire : mais c’est la preuve que la géométrie est une science expérimentale ; en séparant ses principes de lois d’où on les a extraits, vous la séparez artificiellement elle-même des sciences qui lui ont donné naissance. Les autres sciences ont également des principes et cela n’empêche pas qu’on doive les appeler expérimentales. Il faut reconnaître qu’il aurait été difficile de ne pas faire cette séparation que l’on prétend artificielle. On sait le rôle qu’a joué la cinématique des corps solides dans la genèse de la géométrie ; devrait-on dire alors que la géométrie n’est qu’une branche de la cinématique expérimentale ? Mais les lois de la propagation rectiligne de la lumière ont contribué aussi à la formation de ses principes. Faudra-t-il que la géométrie soit regardée à la fois comme une branche de la cinématique et comme une branche de l’optique ? Je rappelle en outre que notre espace euclidien qui est l’objet propre de la géométrie a été choisi, pour des raisons de commodité, parmi un certain nombre de types qui préexistent dans notre esprit et qu’on appelle groupes. Si nous passons à la Mécanique, nous voyons encore de grands principes dont l’origine est analogue, et comme leur « rayon d’action » pour ainsi dire est moins grand, on n’a plus de raison de les séparer de la Mécanique proprement dite et de regarder cette science comme déductive. En Physique enfin, le rôle des principes est encore amoindri. Et en effet on ne les introduit que quand on y a avantage. Or ils ne sont avantageux justement que parce qu’ils sont peu nombreux, parce que chacun d’eux remplace à peu près un grand nombre de lois. On n’a donc pas intérêt à les multiplier. D’ailleurs il faut aboutir, et pour cela il faut bien finir par quitter l’abstraction pour prendre le contact de la réalité. Voilà les bornes du nominalisme, et elles sont étroites. M. Le Roy a insisté pourtant, et il a posé la question sous une autre forme. Puisque l’énoncé de nos lois peut varier avec les conventions que nous adoptons, que ces conventions peuvent modifier même les relations naturelles de ces lois, y a-t-il dans l’ensemble de ces lois quelque chose qui soit indépendant de ces conventions et qui puisse pour ainsi dire jouer le rôle d’invariant universel ? On a par exemple introduit la fiction d’êtres qui, ayant fait leur éducation dans un monde différent du nôtre, auraient été amenés à créer une géométrie non-euclidienne. Si ces êtres étaient ensuite brusquement transportés dans notre monde à nous, ils observeraient les mêmes lois que nous, mais ils les énonceraient d’une manière toute différente. À la vérité, il y aurait encore quelque chose de commun entre les deux énoncés, mais c’est parce que ces êtres ne diffèrent pas encore assez de nous. On peut imaginer des êtres plus étranges encore, et la partie commune entre les deux systèmes d’énoncés se rétrécira de plus en plus. Se rétrécira-t-elle ainsi en tendant vers zéro, ou bien restera-t-il un résidu irréductible qui serait alors l’invariant universel cherché ? La question demande à être précisée. Veut-on que cette partie commune des énoncés soit exprimable par des mots ? Il est clair alors qu’il n’y a pas de mots communs à toutes les langues, et nous ne pouvons avoir la prétention de construire je ne sais quel invariant universel qui serait compris à la fois par nous, et par les géomètres fictifs non-euclidiens dont je viens de parler ; pas plus que nous ne pouvons construire une phrase qui soit comprise à la fois des Allemands qui ne savent pas le français et des Français qui ne savent pas l’allemand. Mais nous avons des règles fixes qui nous permettent de traduire les énoncés français en allemand, et inversement. C’est pour cela qu’on a fait des grammaires et des dictionnaires. Il y a aussi des règles fixes pour traduire le langage euclidien dans le langage non-euclidien, ou s’il n’y en a pas, on pourrait en faire. Et si même, il n’y avait ni interprète, ni dictionnaire, si les Allemands et les Français, après avoir vécu des siècles dans des mondes séparés, se trouvaient tout à coup en contact, croit-on qu’il n’y aurait rien de commun entre la science des livres allemands, et celle des livres français ? Les Français et les Allemands finiraient certainement par s’entendre, comme les Indiens d’Amérique ont fini par comprendre la langue de leurs vainqueurs après l’arrivée des Espagnols. Mais, dira-t-on, sans doute, les Français seraient capables de comprendre les Allemands même sans avoir appris l’allemand, mais c’est parce qu’il reste entre les Français et les Allemands quelque chose de commun, puisque les uns et les autres sont des hommes. On arriverait encore à s’entendre avec nos non-euclidiens hypothétiques, bien qu’ils ne soient plus des hommes, parce qu’ils conserveraient encore quelque chose d’humain. Mais en tout cas un minimum d’humanité est nécessaire. C’est possible, mais j’observerai d’abord que ce peu d’humanité qui resterait chez les non-euclidiens, suffirait non seulement pour qu’on pût traduire un peu de leur langage, mais pour qu’on pût traduire tout leur langage. Maintenant, qu’il faille un minimum, c’est ce que je concède ; je suppose qu’il existe je ne sais quel fluide qui pénètre entre les molécules de notre matière à nous, sans avoir aucune action sur elle ni sans subir aucune action qui en vienne. Je suppose que des êtres soient sensibles à l’influence de ce fluide et insensibles à celle de notre matière. Il est clair que la science de ces êtres différerait absolument de la nôtre et qu’il serait superflu de chercher un « invariant » commun à ces deux sciences. Ou bien encore, si ces êtres rejetaient notre logique et n’admettaient pas, par exemple, le principe de contradiction. Mais vraiment je crois qu’il est sans intérêt d’examiner de semblables hypothèses. Et alors, si nous ne poussons pas si loin la bizarrerie, si nous n’introduisons que des êtres fictifs ayant des sens analogues aux nôtres et sensibles aux mêmes impressions, et d’autre part admettant les principes de notre logique, nous pourrons conclure alors que leur langage, quelque différent du nôtre qu’il puisse être, serait toujours susceptible d’être traduit. Or la possibilité de la traduction implique l’existence d’un invariant. Traduire, c’est précisément dégager cet invariant. Ainsi, déchiffrer un document cryptographique, c’est chercher ce qui dans ce document demeure invariant, quand on en permute les lettres. Quelle est maintenant la nature de cet invariant, il est aisé de s’en rendre compte, et un mot nous suffira. Les lois invariantes ce sont les relations entre les faits bruts, tandis que les relations entre les « faits scientifiques » restaient toujours dépendantes de certaines conventions.     CHAPITRE XI La Science et la Réalité § 5. — CONTINGENCE ET DÉTERMINISME Je n’ai pas l’intention de traiter ici la question de la contingence des lois de la nature, qui est évidemment insoluble, et sur laquelle on a déjà tant écrit. Je voudrais seulement faire remarquer que de sens différents on a donné à ce mot de contingence et combien il serait utile de les distinguer. Si nous envisageons une loi particulière quelconque, nous pouvons être certains d’avance qu’elle ne peut être qu’approximative. Elle est, en effet, déduite de vérifications expérimentales et ces vérifications n’étaient et ne pouvaient être qu’approchées. On doit toujours s’attendre à ce que des mesures plus précises nous obligent à ajouter de nouveaux termes à nos formules ; c’est ce qui est arrivé par exemple pour la loi de Mariotte. De plus l’énoncé d’une loi quelconque est forcément incomplet. Cet énoncé devrait comprendre l’énumération de tous les antécédents en vertu desquels un conséquent donné pourra se produire. Je devrais d’abord décrire toutes les conditions de l’expérience à faire et la loi s’énoncerait alors : si toutes les conditions sont remplies tel phénomène aura lieu. Mais on ne sera sûr de n’avoir oublié aucune de ces conditions, que quand on aura décrit l’état de l’univers tout entier à l’instant t ; toutes les parties de cet univers peuvent en effet exercer une influence plus ou moins grande sur le phénomène qui doit se produire à l’instant t + dt. Or il est clair qu’une pareille description ne saurait se trouver dans l’énoncé de la loi ; si on la faisait d’ailleurs, la loi deviendrait inapplicable ; si on exigeait à la fois tant de conditions, il y aurait bien peu de chance pour qu’à aucun moment elles fussent jamais toutes réalisées. Alors comme on ne sera jamais certain de n’avoir pas oublié quelque condition essentielle, on ne pourra pas dire : si telles et telles conditions sont réalisées, tel phénomène se produira ; on pourra dire seulement : si telles et telles conditions sont réalisées, il est probable que tel phénomène se produira à peu près. Prenons la loi de la gravitation qui est la moins imparfaite de toutes les lois connues. Elle nous permet de prévoir les mouvements des planètes. Quand je m’en sers par exemple pour calculer l’orbite de Saturne, je néglige l’action des étoiles, et en agissant ainsi, je suis certain de ne pas me tromper, car je sais que ces étoiles sont trop éloignées pour que leur action soit sensible. J’annonce alors avec une quasi-certitude que les coordonnées de Saturne à telle heure seront comprises entre telles et telles limites. Cette certitude cependant est-elle absolue ? Ne pourrait-il exister dans l’univers quelque masse gigantesque, beaucoup plus grande que celle de tous les astres connus et dont l’action pourrait se faire sentir à de grandes distances ? Cette masse serait animée d’une vitesse colossale et après avoir circulé de tout temps à de telles distances que son influence soit restée jusqu’ici insensible pour nous, elle viendrait tout à coup passer près de nous. À coup sûr, elle produirait dans notre système solaire des perturbations énormes que nous n’aurions pu prévoir. Tout ce qu’on peut dire c’est qu’une pareille éventualité est tout à fait invraisemblable, et alors, au lieu de dire : Saturne sera près de tel point du ciel, nous devrons nous borner à dire : Saturne sera probablement près de tel point du ciel. Bien que cette probabilité soit pratiquement équivalente à la certitude, ce n’est qu’une probabilité. Pour toutes ces raisons, aucune loi particulière ne sera jamais qu’approchée et probable. Les savants n’ont jamais méconnu cette vérité ; seulement ils croient, à tort ou à raison, que toute loi pourra être remplacée par une autre plus approchée et plus probable, que cette loi nouvelle ne sera elle-même que provisoire, mais que le même mouvement pourra continuer indéfiniment, de sorte que la science en progressant possédera des lois de plus en plus probables, que l’approximation finira par différer aussi peu que l’on veut de l’exactitude et la probabilité de la certitude. Si les savants qui pensent ainsi avaient raison, devrait-on dire encore que les lois de la nature sont contingentes, bien que chaque loi, prise en particulier, puisse être qualifiée de contingente ? Ou bien devra-t-on exiger, avant de conclure à la contingence des lois naturelles, que ce progrès ait un terme, que le savant finisse un jour par être arrêté dans sa recherche d’une approximation de plus en plus grande et qu’au-delà d’une certaine limite, il ne rencontre plus dans la Nature que le caprice ? Dans la conception dont je viens de parler (et que j’appellerai la conception scientifique), toute loi n’est qu’un énoncé imparfait et provisoire, mais elle doit être remplacée un jour par une autre loi supérieure, dont elle n’est qu’une image grossière. Il ne reste donc pas de place pour l’intervention d’une volonté libre. Il me semble que la théorie cinétique des gaz va nous fournir un exemple frappant. On sait que dans cette théorie, on explique toutes les propriétés des gaz par une hypothèse simple ; on suppose que toutes les molécules gazeuses se meuvent en tous sens avec de grandes vitesses et qu’elles suivent des trajectoires rectilignes qui ne sont troublées que quand une molécule passe très près des parois du vase ou d’une autre molécule. Les effets que nos sens grossiers nous permettent d’observer sont les effets moyens, et dans ces moyennes, les grands écarts se compensent, ou tout au moins il est très improbable qu’ils ne se compensent pas ; de sorte que les phénomènes observables suivent des lois simples, telles que celle de Mariotte ou de Gay- Lussac. Mais cette compensation des écarts n’est que probable. Les molécules changent incessamment de place et dans ces déplacements continuels, les figures qu’elles forment passent successivement par toutes les combinaisons possibles. Seulement ces combinaisons sont très nombreuses, presque toutes sont conformes à la loi de Mariotte, quelques- unes seulement s’en écartent. Celles-là aussi se réaliseront, seulement il faudrait les attendre longtemps ; si l’on observait un gaz pendant un temps assez long, on finirait certainement par le voir s’écarter, pendant un temps très court, de la loi de Mariotte. Combien de temps faudrait-il attendre ? Si on voulait calculer le nombre d’années probable, on trouverait que ce nombre est tellement grand que pour écrire seulement le nombre de ses chiffres, il faudrait encore une dizaine de chiffres. Peu importe, il nous suffit qu’il soit fini. Je ne veux pas discuter ici la valeur de cette théorie. Il est clair que si on l’adopte, la loi de Mariotte ne nous apparaîtra plus que comme contingente, puisqu’il viendra un jour où elle ne sera plus vraie. Et pourtant croit-on que les partisans de la théorie cinétique soient des adversaires du déterminisme ? Loin de là, ce sont les plus intransigeants des mécanistes. Leurs molécules suivent des trajectoires rigides, dont elles ne s’écartent que sous l’influence de forces qui varient avec la distance suivant une loi parfaitement déterminée. Il ne reste pas dans leur système la plus petite place, ni pour la liberté, ni pour un facteur évolutif proprement dit, ni pour n’importe quoi qu’on puisse appeler contingence. J’ajoute, pour éviter une confusion, qu’il n’y a pas là non plus une évolution de la loi de Mariotte elle-même ; elle cesse d’être vraie, après je ne sais combien de siècles ; mais au bout d’une fraction de seconde, elle redevient vraie et cela pour un nombre incalculable de siècles. Et puisque j’ai prononcé ce mot d’évolution, dissipons encore un malentendu. On dit souvent : qui sait si les lois n’évoluent pas et si on ne découvrira pas un jour qu’elles n’étaient pas à l’époque carbonifère ce qu’elles sont aujourd’hui ? Qu’entend-on par là ? Ce que nous croyons savoir de l’état passé de notre globe, nous le déduisons de son état présent. Et comment se fait cette déduction, c’est par le moyen des lois supposées connues. La loi étant une relation entre l’antécédent et le conséquent, nous permet également bien de déduire le conséquent de l’antécédent, c’est-à- dire de prévoir l’avenir et de déduire l’antécédent du conséquent, c’est-à- dire de conclure du présent au passé. L’astronome qui connaît la situation actuelle des astres, peut en déduire leur situation future par la loi de Newton, et c’est ce qu’il fait quand il construit des éphémérides ; et il peut également en déduire leur situation passée. Les calculs qu’il pourra faire ainsi ne pourront pas lui enseigner que la loi de Newton cessera d’être vraie dans l’avenir, puisque cette loi est précisément son point de départ ; ils ne pourront pas davantage lui apprendre qu’elle n’était pas vraie dans le passé. Encore en ce qui concerne l’avenir, ses éphémérides pourront être un jour contrôlées et nos descendants reconnaîtront peut-être qu’elles étaient fausses. Mais en ce qui concerne le passé, le passé géologique qui n’a pas eu de témoins, les résultats de son calcul, comme ceux de toutes les spéculations où nous cherchons à déduire le passé du présent, échappent par leur nature même à toute espèce de contrôle. De sorte que si les lois de la nature n’étaient pas les mêmes à l’âge carbonifère qu’à l’époque actuelle, nous ne pourrons jamais le savoir, puisque nous ne pouvons rien savoir de cet âge que ce que nous déduisons de l’hypothèse de la permanence de ces lois. On dira peut-être que cette hypothèse pourrait conduire à des résultats contradictoires et qu’on sera obligé de l’abandonner. Ainsi, en ce qui concerne l’origine de la vie, on peut conclure qu’il y a toujours eu des êtres vivants, puisque le monde actuel nous montre toujours la vie sortant de la vie ; et on peut conclure aussi qu’il n’y en a pas toujours eu, puisque l’application des lois actuelles de la physique à l’état présent de notre globe nous enseigne qu’il y a eu un temps où ce globe était tellement chaud que la vie y était impossible. Mais les contradictions de ce genre peuvent toujours se lever de deux manières : on peut supposer que les lois actuelles de la nature ne sont pas exactement celles que nous avons admises ; ou bien on peut supposer que les lois de la nature sont actuellement celles que nous avons admises, mais qu’il n’en a pas toujours été ainsi. Il est clair que les lois actuelles ne seront jamais assez bien connues pour qu’on ne puisse adopter la première de ces deux solutions et qu’on soit contraint de conclure à l’évolution des lois naturelles. D’autre part supposons une pareille évolution ; admettons, si l’on veut, que l’humanité dure assez pour que cette évolution puisse avoir des témoins. Le même antécédent produira par exemple des conséquents différents à l’époque carbonifère et à l’époque quaternaire. Cela veut dire évidemment que les antécédents sont à peu près pareils ; si toutes les circonstances étaient identiques, l’époque carbonifère deviendrait indiscernable de l’époque quaternaire. Évidemment ce n’est pas là ce que l’on suppose. Ce qui reste, c’est que tel antécédent, accompagné de telle circonstance accessoire, produit tel conséquent ; et que le même antécédent, accompagné de telle autre circonstance accessoire, produit tel autre conséquent. Le temps ne fait rien à l’affaire. La loi, telle que la science mal informée l’aurait énoncée, et qui aurait affirmé que cet antécédent produit toujours ce conséquent, sans tenir compte des circonstances accessoires ; cette loi, dis-je, qui n’était qu’approchée et probable, doit être remplacée par une autre loi plus approchée et plus probable qui fait intervenir ces circonstances accessoires. Nous retombons donc toujours sur ce même processus que nous avons analysé plus haut, et si l’humanité venait à découvrir quelque chose dans ce genre, elle ne dirait pas que ce sont les lois qui ont évolué, mais les circonstances qui se sont modifiées. Voilà donc bien des sens différents du mot contingence. M. Le Roy les retient tous et il ne les distingue pas suffisamment, mais il en introduit un nouveau. Les lois expérimentales ne sont qu’approchées, et si quelques- unes nous apparaissent comme exactes, c’est que nous les avons artificiellement transformées en ce que j’ai appelé plus haut un principe. Cette transformation, nous l’avons faite librement, et comme le caprice qui nous a déterminés à la faire est quelque chose d’éminemment contingent, nous avons communiqué cette contingence à la loi elle-même. C’est en ce sens que nous avons le droit de dire que le déterminisme suppose la liberté, puisque c’est librement que nous devenons déterministes. Peut-être trouvera-t-on que c’est là faire la part bien large au nominalisme et que l’introduction de ce sens nouveau du mot contingence n’aidera pas beaucoup à résoudre toutes ces questions qui se posent naturellement et dont nous venons de dire quelques mots. Je ne veux nullement rechercher ici les fondements du principe d’induction ; je sais fort bien que je n’y réussirai pas ; il est aussi difficile de justifier ce principe que de s’en passer. Je veux seulement montrer comme les savants l’appliquent et sont forcés de l’appliquer. Quand le même antécédent se reproduit, le même conséquent doit se reproduire également ; tel est l’énoncé ordinaire. Mais réduit à ces termes ce principe ne pourrait servir à rien. Pour qu’on pût dire que le même antécédent s’est reproduit, il faudrait que les circonstances se fussent toutes reproduites, puisqu’aucune n’est absolument indifférente, et qu’elles se fussent exactement reproduites. Et, comme cela n’arrivera jamais, le principe ne pourra recevoir aucune application. Nous devons donc modifier l’énoncé et dire : si un antécédent A a produit une fois un conséquent B, un antécédent A′ peu différent de A, produira un conséquent B′ peu différent de B. Mais comment reconnaîtrons- nous que les antécédents A et A′ sont « peu différents » ? Si quelqu’une des circonstances peut s’exprimer par un nombre, et que ce nombre ait dans les deux cas des valeurs très voisines, le sens du mot « peu différent » est relativement clair ; le principe signifie alors que le conséquent est une fonction continue de l’antécédent. Et comme règle pratique, nous arrivons à cette conclusion que l’on a le droit d’interpoler. C’est en effet ce que les savants font tous les jours et sans l’interpolation toute science serait impossible. Observons toutefois une chose. La loi cherchée peut se représenter par une courbe. L’expérience nous a fait connaître certains points de cette courbe. En vertu du principe que nous venons d’énoncer nous croyons que ces points peuvent être reliés par un trait continu. Nous traçons ce trait à l’œil. De nouvelles expériences nous fourniront de nouveaux points de la courbe. Si ces points sont en dehors du trait tracé d’avance, nous aurons à modifier notre courbe, mais non pas à abandonner notre principe. Par des points quelconques, si nombreux qu’ils soient, on peut toujours faire passer une courbe continue. Sans doute, si cette courbe est trop capricieuse, nous serons choqués (et même nous soupçonnerons des erreurs d’expérience), mais le principe ne sera pas directement mis en défaut. De plus, parmi les circonstances d’un phénomène, il y en a que nous regardons comme négligeables, et nous considérerons A et A′ comme peu différents, s’ils ne diffèrent que par ces circonstances accessoires. Par exemple, j’ai constaté que l’hydrogène s’unissait à l’oxygène sous l’influence de l’étincelle, et je suis certain que ces deux gaz s’uniront de nouveau, bien que la longitude de Jupiter ait changé considérablement dans l’intervalle. Nous admettons par exemple que l’état des corps éloignés ne peut avoir d’influence sensible sur les phénomènes terrestres, et cela en effet semble s’imposer, mais il est des cas où le choix de ces circonstances pratiquement indifférentes comporte plus d’arbitraire ou, si l’on veut, exige plus de flair. Une remarque encore : le principe d’induction serait inapplicable, s’il n’existait dans la nature une grande quantité de corps semblables entre eux, ou à peu près semblables, et si l’on ne pouvait conclure par exemple d’un morceau de phosphore à un autre morceau de phosphore. Si nous réfléchissons à ces considérations, le problème du déterminisme et de la contingence nous apparaîtra sous un jour nouveau. Supposons que nous puissions embrasser la série de tous les phénomènes de l’univers dans toute la suite des temps. Nous pourrions envisager ce que l’on pourrait appeler les séquences, je veux dire des relations entre antécédent et conséquent. Je ne veux pas parler de relations constantes ou de lois, j’envisage séparément (individuellement pour ainsi dire) les diverses séquences réalisées. Nous reconnaîtrions alors que parmi ces séquences il n’y en a pas deux qui soient tout à fait pareilles. Mais, si le principe d’induction tel que nous venons de l’énoncer est vrai, il y en aura qui seront à peu près pareilles et qu’on pourra classer les unes à côté des autres. En d’autres termes, il est possible de faire une classification des séquences. C’est à la possibilité et à la légitimité d’une pareille classification que se réduit en fin de compte le déterminisme. C’est tout ce que l’analyse précédente en laisse subsister. Peut-être sous cette forme modeste semblera- t-il moins effrayant au moraliste. On dira sans doute que c’est revenir par un détour à la conclusion de M. le Roy que tout à l’heure nous semblions rejeter : c’est librement qu’on est déterministe. Et en effet toute classification suppose l’intervention active du classificateur. J’en conviens, cela peut se soutenir, mais il me semble que ce détour n’aura pas été inutile et aura contribué à nous éclairer un peu. § 6. — OBJECTIVITÉ DE LA SCIENCE J’arrive à la question posée par le titre de cet article : Quelle est la valeur objective de la science ? Et d’abord que devons-nous entendre par objectivité ? Ce qui nous garantit l’objectivité du monde dans lequel nous vivons, c’est que ce monde nous est commun avec d’autres êtres pensants. Par les communications que nous avons avec les autres hommes, nous recevons d’eux des raisonnements tout faits ; nous savons que ces raisonnements ne viennent pas de nous et en même temps nous y reconnaissons l’œuvre d’êtres raisonnables comme nous. Et comme ces raisonnements paraissent s’appliquer au monde de nos sensations, nous croyons pouvoir conclure que ces êtres raisonnables ont vu la même chose que nous ; c’est comme cela que nous savons que nous n’avons pas fait un rêve. Telle est donc la première condition de l’objectivité : ce qui est objectif doit être commun à plusieurs esprits, et par conséquent pouvoir être transmis de l’un à l’autre, et comme cette transmission ne peut se faire que par ce « discours » qui inspire tant de défiance à M. le Roy, nous sommes bien forcés de conclure : Pas de discours, pas d’objectivité. Les sensations d’autrui seront pour nous un monde éternellement fermé. La sensation que j’appelle rouge est-elle la même que celle que mon voisin appelle rouge, nous n’avons aucun moyen de le vérifier. Supposons qu’une cerise et un coquelicot produisent sur moi la sensation A et sur lui la sensation B et qu’au contraire une feuille produise sur moi la sensation B et sur lui la sensation A. Il est clair que nous n’en saurons jamais rien ; puisque j’appellerai rouge la sensation A et vert la sensation B, tandis que lui appellera la première vert et la seconde rouge. En revanche ce que nous pourrons constater c’est que, pour lui comme pour moi, la cerise et le coquelicot produisent la même sensation, puisqu’il donne le même nom aux sensations qu’il éprouve et que je fais de même. Les sensations sont donc intransmissibles, ou plutôt tout ce qui est qualité pure en elles est intransmissible et à jamais impénétrable. Mais il n’en est pas de même des relations entre ces sensations. À ce point de vue, tout ce qui est objectif est dépourvu de toute qualité et n’est que relation pure. Je n’irai certes pas jusqu’à dire que l’objectivité ne soit que quantité pure (ce serait trop particulariser la nature des relations en question), mais on comprend que je ne sais plus qui se soit laissé entraîner à dire que le monde n’est qu’une équation différentielle. Tout en faisant des réserves sur cette proposition paradoxale, nous devons néanmoins admettre que rien n’est objectif qui ne soit transmissible, et par conséquent que les relations entre les sensations peuvent seules avoir une valeur objective. On dira peut-être que l’émotion esthétique, qui est commune à tous les hommes, est la preuve que les qualités de nos sensations sont aussi les mêmes pour tous les hommes et par là sont objectives. Mais si l’on y réfléchit, on verra que la preuve n’est pas faite ; ce qui est prouvé, c’est que cette émotion est provoquée chez Jean comme chez Pierre par les sensations auxquelles Jean et Pierre donnent le même nom ou par les combinaisons correspondantes de ces sensations ; soit que cette émotion soit associée chez Jean à la sensation A que Jean appelle rouge, tandis que parallèlement elle est associée chez Pierre à la sensation B que Pierre appelle rouge ; soit mieux parce que cette émotion est provoquée, non par les qualités mêmes des sensations, mais par l’harmonieuse combinaison de leurs relations dont nous subissons l’impression inconsciente. Telle sensation est belle, non parce qu’elle possède telle qualité, mais parce qu’elle occupe telle place dans la trame de nos associations d’idées, de sorte qu’on ne peut l’exciter sans mettre en mouvement le « récepteur » qui est à l’autre bout du fil et qui correspond à l’émotion artistique. Qu’on se place au point de vue moral, esthétique ou scientifique, c’est toujours la même chose. Rien n’est objectif que ce qui est identique pour tous ; or on ne peut parler d’une pareille identité que si une comparaison est possible, et peut être traduite en une « monnaie d’échange » pouvant se transmettre d’un esprit à l’autre. Rien n’aura donc de valeur objective que ce qui sera transmissible par le « discours », c’est-à-dire intelligible. Mais ce n’est là qu’un côté de la question. Un ensemble absolument désordonné ne saurait avoir de valeur objective puisqu’il serait inintelligible, mais un ensemble bien ordonné peut n’en avoir non plus aucune, s’il ne correspond pas à des sensations effectivement éprouvées. Il me semble superflu de rappeler cette condition et je n’y aurais pas songé si on n’avait soutenu dernièrement que la physique n’est pas une science expérimentale. Bien que cette opinion n’ait aucune chance d’être adoptée ni par les physiciens, ni par les philosophes, il est bon d’être averti, afin de ne pas se laisser glisser sur la pente qui y mènerait. On a donc deux conditions à remplir, et si la première sépare la réalité  4 du rêve, la seconde la distingue du roman. Maintenant qu’est-ce que la science ? Je l’ai expliqué au § précédent, c’est avant tout une classification, une façon de rapprocher des faits que les apparences séparaient, bien qu’ils fussent liés par quelque parenté naturelle et cachée. La science, en d’autres termes, est un système de relations. Or nous venons de le dire, c’est dans les relations seulement que l’objectivité doit être cherchée ; il serait vain de la chercher dans les êtres considérés comme isolés les uns des autres. Dire que la science ne peut avoir de valeur objective parce qu’elle ne nous fait connaître que des rapports, c’est raisonner à rebours, puisque précisément ce sont les rapports seuls qui peuvent être regardés comme objectifs. Les objets extérieurs, par exemple, pour lesquels le mot objet a été inventé, sont justement des objets et non des apparences fuyantes et insaisissables parce que ce ne sont pas seulement des groupes de sensations, mais des groupes cimentés par un lien constant. C’est ce lien, et ce lien seul qui est objet en eux, et ce lien c’est un rapport. Donc quand nous demandons quelle est la valeur objective de la science, cela ne veut pas dire : la science nous fait-elle connaître la véritable nature des choses ? mais cela veut dire ; nous fait-elle connaître les véritables rapports des choses ? À la première question, personne n’hésiterait à répondre, non ; mais je crois qu’on peut aller plus loin : non seulement la science ne peut nous faire connaître la nature des choses ; mais rien n’est capable de nous la faire connaître et si quelque dieu la connaissait, il ne pourrait trouver de mots pour l’exprimer. Non seulement nous ne pouvons deviner la réponse, mais si on nous la donnait, nous n’y pourrions rien comprendre ; je me demande même si nous comprenons bien la question. Quand donc une théorie scientifique prétend nous apprendre ce qu’est la chaleur, ou que l’électricité, ou que la vie, elle est condamnée d’avance ; tout ce qu’elle peut nous donner, ce n’est qu’une image grossière. Elle est donc provisoire et caduque. La première question étant hors de cause, reste la seconde. La science peut-elle nous faire connaître les véritables rapports des choses ? Ce qu’elle rapproche devrait-il être séparé, ce qu’elle sépare devrait-il être rapproché ? Pour comprendre le sens de cette nouvelle question, il faut se reporter à ce que nous avons dit plus haut sur les conditions de l’objectivité. Ces rapports ont-ils une valeur objective ? cela veut dire : ces rapports sont-ils les mêmes pour tous ? seront-ils encore les mêmes pour ceux qui viendront après nous ? Il est clair qu’ils ne sont pas les mêmes pour le savant et pour l’ignorant. Mais peu importe, car si l’ignorant ne les voit pas tout de suite, le savant peut arriver à les lui faire voir par une série d’expériences et de raisonnements. L’essentiel est qu’il y a des points sur lesquels tous ceux qui sont au courant des expériences faites peuvent se mettre d’accord. La question est de savoir si cet accord sera durable et s’il persistera chez nos successeurs. On peut se demander si les rapprochements que fait la science d’aujourd’hui seront confirmés par la science de demain. On ne peut pour affirmer qu’il en sera ainsi invoquer aucune raison a priori ; mais c’est une question de fait, et la science a déjà assez vécu pour qu’en interrogeant son histoire, on puisse savoir si les édifices qu’elle élève résistent à l’épreuve du temps ou s’ils ne sont que des constructions éphémères. Or que voyons-nous ? Au premier abord il nous semble que les théories ne durent qu’un jour et que les ruines s’accumulent sur les ruines. Un jour elles naissent, le lendemain elles sont à la mode, le surlendemain elles sont classiques, le troisième jour elles sont surannées et le quatrième elles sont oubliées. Mais si l’on y regarde de plus près, on voit que ce qui succombe ainsi, ce sont les théories proprement dites, celles qui prétendent nous apprendre ce que sont les choses. Mais il y a en elles quelque chose qui le plus souvent survit. Si l’une d’elles nous a fait connaître un rapport vrai, ce rapport est définitivement acquis et on le retrouvera sous un déguisement nouveau dans les autres théories qui viendront successivement régner à sa place. Ne prenons qu’un exemple : la théorie des ondulations de l’éther nous enseignait que la lumière est un mouvement ; aujourd’hui la mode favorise la théorie électromagnétique qui nous enseigne que la lumière est un courant. N’examinons pas si on pourrait les concilier et dire que la lumière est un courant, et que ce courant est un mouvement ? Comme il est probable en tout cas que ce mouvement ne serait pas identique à celui qu’admettaient les partisans de l’ancienne théorie, on pourrait se croire fondé à dire que cette ancienne théorie est détrônée. Et pourtant, il en reste quelque chose, puisque entre les courants hypothétiques qu’admet Maxwell, il y a les mêmes relations qu’entre les mouvements hypothétiques qu’admettait Fresnel. Il y a donc quelque chose qui reste debout et ce quelque chose est l’essentiel. C’est ce qui explique comment on voit les physiciens actuels passer sans aucune gêne du langage de Fresnel à celui de Maxwell. Sans doute bien des rapprochements qu’on croyait bien établis ont été abandonnés, mais le plus grand nombre subsiste et paraît devoir subsister. Et pour ceux-là alors, quelle est la mesure de leur objectivité ? Eh bien, elle est précisément la même que pour notre croyance aux objets extérieurs. Ces derniers sont réels en ce que les sensations qu’ils nous font éprouver nous apparaissent comme unies entre elles par je ne sais quel ciment indestructible et non par un hasard d’un jour. De même la science nous révèle entre les phénomènes d’autres liens plus ténus mais non moins solides ; ce sont des fils si déliés qu’ils sont restés longtemps inaperçus mais dès qu’on les a remarqués, il n’y a plus moyen de ne pas les voir ; ils ne sont donc pas moins réels que ceux qui donnent leur réalité aux objets extérieurs ; peu importe qu’ils soient plus récemment connus puisque les uns ne doivent pas périr avant les autres. On peut dire par exemple que l’éther n’a pas moins de réalité qu’un corps extérieur quelconque ; dire que ce corps existe, c’est dire qu’il y a entre la couleur de ce corps, sa saveur, son odeur, un lien intime, solide et persistant, dire que l’éther existe, c’est dire qu’il y a une parenté naturelle entre tous les phénomènes optiques, et les deux propositions n’ont évidemment pas moins de valeur l’une que l’autre. Et même les synthèses scientifiques ont en un sens plus de réalité que celles du sens commun, puisqu’elles embrassent plus de termes et tendent à absorber en elles les synthèses partielles. On dira que la science n’est qu’une classification et qu’une classification ne peut être vraie, mais commode. Mais il est vrai qu’elle est commode, il est vrai qu’elle l’est non seulement pour moi, mais pour tous les hommes ; il est vrai qu’elle restera commode pour nos descendants ; il est vrai enfin que cela ne peut pas être par hasard. En résumé, la seule réalité objective, ce sont les rapports des choses d’où résulte l’harmonie universelle. Sans doute ces rapports, cette harmonie ne sauraient être conçus en dehors d’un esprit qui les conçoit ou qui les sent. Mais ils sont néanmoins objectifs parce qu’ils sont, deviendront, ou resteront communs à tous les êtres pensants. Cela va nous permettre de revenir sur la question de la rotation de la Terre ce qui nous fournira en même temps l’occasion d’éclaircir ce qui précède par un exemple. § 7. — LA ROTATION DE LA TERRE « ... Dès lors, ai-je dit dans Science et Hypothèse, cette affirmation la Terre tourne n’a aucun sens... ou plutôt ces deux propositions, la Terre tourne, et, il est plus commode de supposer que la Terre tourne, ont un seul et même sens. » Ces paroles, ont donné lieu aux interprétations les plus étranges. On a cru y voir la réhabilitation du système de Ptolémée, et peut-être la justification de la condamnation de Galilée. Ceux qui avaient lu attentivement le volume tout entier ne pouvaient cependant s’y tromper. Cette vérité, la Terre tourne, se trouvait mise sur le même pied que le postulatum d’Euclide par exemple ; était-ce là la rejeter. Mais il y a mieux ; dans le même langage on dira très bien : ces deux propositions, le monde extérieur existe, ou, il est plus commode de supposer qu’il existe, ont un seul et même sens. Ainsi l’hypothèse de la rotation de la Terre conserverait le même degré de certitude que l’existence même des objets extérieurs. Mais après ce que nous venons d’expliquer dans la quatrième partie, nous pouvons aller plus loin. Une théorie physique, avons-nous dit, est d’autant plus vraie, qu’elle met en évidence plus de rapports vrais. À la lumière de ce nouveau principe, examinons la question qui nous occupe. Non, il n’y a pas d’espace absolu ; ces deux propositions contradictoires : « la Terre tourne » et « la terre ne tourne pas » ne sont donc pas cinématiquement plus vraies l’une que l’autre. Affirmer l’une, en niant l’autre, au sens cinématique, ce serait admettre l’existence de l’espace absolu. Mais si l’une nous révèle des rapports vrais que l’autre nous dissimule, on pourra néanmoins la regarder comme physiquement plus vraie que l’autre, puisqu’elle a un contenu plus riche. Or à cet égard aucun doute n’est possible. Voilà le mouvement diurne apparent des étoiles, et le mouvement diurne des autres corps célestes, et d’autre part l’aplatissement de la Terre, la rotation du pendule de Foucault, la giration des cyclones, les vents alizés, que sais-je encore ? Pour le Ptoléméien, tous ces phénomènes n’ont entre eux aucun lien ; pour le Copernicien, ils sont engendrés par une même cause. En disant, la Terre tourne, j’affirme que tous ces phénomènes ont un rapport intime, et cela est vrai, et cela reste vrai bien qu’il n’y ait pas et qu’il ne puisse y avoir d’espace absolu. Voilà pour la rotation de la Terre sur elle-même ; que dire de sa révolution autour du Soleil. Ici encore, nous avons trois phénomènes qui pour le Ptoléméien sont absolument indépendants et qui pour le Copernicien sont rapportés à la même origine ; ce sont les déplacements apparents des planètes sur la sphère céleste, l’aberration des étoiles fixes, la parallaxe de ces mêmes étoiles. Est-ce par hasard que toutes les planètes admettent une inégalité dont la période est d’un an, et que cette période est précisément égale à celle de l’aberration, précisément égale encore à celle de la parallaxe ? Adopter le système de Ptolémée, c’est répondre oui ; adopter celui de Copernic c’est répondre non ; c’est affirmer qu’il y a un lien entre les trois phénomènes et cela encore est vrai bien qu’il n’y ait pas d’espace absolu. Dans le système de Ptolémée, les mouvements des corps célestes ne peuvent s’expliquer par l’action de forces centrales, la Mécanique Céleste est impossible. Les rapports intimes que la Mécanique Céleste nous révèle entre tous les phénomènes célestes sont des rapports vrais ; affirmer l’immobilité de la Terre, ce serait nier ces rapports, ce serait donc se tromper. La vérité, pour laquelle Galilée a souffert, reste donc la vérité, encore qu’elle n’ait pas tout à fait le même sens que pour le vulgaire, et que son vrai sens soit bien plus subtil, plus profond et plus riche. § 8. — LA SCIENCE POUR LA SCIENCE Ce n’est pas contre M. Le Roy que je veux défendre la Science pour la Science ; c’est peut-être ce qu’il condamne, mais c’est ce qu’il cultive, puisqu’il aime et recherche la vérité et qu’il ne saurait vivre sans elle. Mais j’ai quelques réflexions à faire. Nous ne pouvons connaître tous les faits et il faut choisir ceux qui sont dignes d’être connus. Si l’on en croyait Tolstoï, les savants feraient ce choix au hasard, au lieu de le faire, ce qui serait raisonnable, en vue des applications pratiques. Les savants, au contraire, croient que certains faits sont plus intéressants que d’autres, parce qu’ils complètent une harmonie inachevée, ou parce qu’ils font prévoir un grand nombre d’autres faits. S’ils ont tort, si cette hiérarchie des faits qu’ils postulent implicitement, n’est qu’une illusion vaine, il ne saurait y avoir de Science pour la Science, et par conséquent il ne saurait y avoir de Science. Quant à moi, je crois qu’ils ont raison, et, par exemple, j’ai montré plus haut quelle est la haute valeur des faits astronomiques, non parce qu’ils sont susceptibles d’applications pratiques, mais parce qu’ils sont les plus instructifs de tous. Ce n’est que par la Science et par l’Art que valent les civilisations. On s’est étonné de cette formule : la Science pour la Science ; et pourtant cela vaut bien la vie pour la vie, si la vie n’est que misère ; et même le bonheur pour le bonheur, si l’on ne croit pas que tous les plaisirs sont de même qualité, si l’on ne veut pas admettre que le but de la civilisation soit de fournir de l’alcool aux gens qui aiment à boire. Toute action doit avoir un but. Nous devons souffrir, nous devons travailler, nous devons payer notre place au spectacle, mais c’est pour voir ; ou tout au moins pour que d’autres voient un jour. Tout ce qui n’est pas pensée est le pur néant ; puisque nous ne pouvons penser que la pensée et que tous les mots dont nous disposons pour parler des choses ne peuvent exprimer que des pensées ; dire qu’il y a autre chose que la pensée, c’est donc une affirmation qui ne peut avoir de sens. Et cependant — étrange contradiction pour ceux qui croient au temps — l’histoire géologique nous montre que la vie n’est qu’un court épisode entre deux éternités de mort, et que, dans cet épisode même, la pensée consciente n’a duré et ne durera qu’un moment. La pensée n’est qu’un éclair au milieu d’une longue nuit. Mais c’est cet éclair qui est tout.   Notes [←1] Au lieu de dire que nous rapportons l’espace à des axes invariablement liés à notre corps, peut-être vaudrait-il mieux dire, conformément à ce qui précède, que nous le rapportons à des axes invariablement liés à la situation initiale de notre corps. [←2] Car les corps opposeraient une inertie croissante aux causes qui tendraient à accélérer leur mouvement ; et cette inertie deviendrait infinie quand on approcherait de la vitesse de la lumière. [←3] Ces considérations sur la Physique Mathématique sont empruntées à la Conférence faite à Saint-Louis. [←4] J’emploie ici le mot réel comme synonyme d’objectif ; je me conforme ainsi à l’usage commun ; j’ai peut-être tort, nos rêves sont réels, mais ils ne sont pas objectifs.
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
KRAME Kadurha Étudiant Avenue Maman Christine Kyeshero/Goma-RDC H+243 977 468 801 Bkramedavid@gmail.com Expériences Octobre 2019 à Aujourd’hui Chercheur au CRES,Centre de Recherche et d’Expertise Scientifique, Goma-NK, RDCongo {Formateur en intelligence artificielle(Bases mathématiques du deep learning) {Informatique théorique et Intelligence artificielle. Décembre 2018 à Aujourd’hui Répétiteur permanent,Self-employed, Goma-NK, RDCongo {Répétiteur en connaissances de base {Répétiteur de mathématique chezElimu Nyumbanide Mars 2021 à Juin 2021. Octobre 2015 à Octobre 2016 Vice-président du groupe TUP,Techniciens Unis pour le Progrès, Bukavu-SK, RDCongo {Réflexions sur des projets d’électrification de la ville de Bukavu Formations Octobre 2016 – Janvier 2021 Graduat,ULPGL-Goma, Université Libre des Pays des Grands-Lacs Génie électrique et informatique Octobre 2010 – Juillet 2016 Diplôme d’Etat,ITFM-Bukavu, Institut Technique Fundi Maendeleo Électricité Industrielle Compétences en électricité, informatique et autres DomotiqueArduino, AppInventor, API ( Automates Programmables Industriels ) Siemens LatexSaisi des documents de qualité Python Tensorflow/Keras, ScikitLearn, Pandas,... Info. ThéoriqueThéorie des graphes, Théorie de la complexité, calculabilité, Logique, Théorie des langages formels,... IA Approches théoriques et pratiques de l’intelligence artificielle Compétences linguistiques Anglaislu uniquement Françaislu, écrit et parlé Swahililu et parlé Centres d’intérêt Informatique théorique Théorie des graphes, Théorie des jeux, Théories de la complexité et de la calculabilité, Théorie des langages formels Intelligence artificielle Aspect fondamental de l’intelligence artificielle MathématiquesTopologie algébrique Philosophie Criticisme de Kant, Théories de Spinoza
KRAME Kadurha Étudiant Avenue Maman Christine Kyeshero/Goma-RDC H+243 977 468 801 Bkramedavid@gmail.com Expériences Octobre 2019 à Aujourd’hui Chercheur au CRES,Centre de Recherche et d’Expertise Scientifique, Goma-NK, RDCongo {Formateur en intelligence artificielle(Bases mathématiques du deep learning) {Informatique théorique et Intelligence artificielle. Décembre 2018 à Aujourd’hui Répétiteur permanent,Self-employed, Goma-NK, RDCongo {Répétiteur en connaissances de base {Répétiteur de mathématique chezElimu Nyumbanide Mars 2021 à Juin 2021. Octobre 2015 à Octobre 2016 Vice-président du groupe TUP,Techniciens Unis pour le Progrès, Bukavu-SK, RDCongo {Réflexions sur des projets d’électrification de la ville de Bukavu Formations Octobre 2016 – Janvier 2021 Graduat,ULPGL-Goma, Université Libre des Pays des Grands-Lacs Génie électrique et informatique Octobre 2010 – Juillet 2016 Diplôme d’Etat,ITFM-Bukavu, Institut Technique Fundi Maendeleo Électricité Industrielle Compétences en électricité, informatique et autres DomotiqueArduino, AppInventor, API ( Automates Programmables Industriels ) Siemens LatexSaisi des documents de qualité Python Tensorflow/Keras, ScikitLearn, Pandas,... Info. ThéoriqueThéorie des graphes, Théorie de la complexité, calculabilité, Logique, Théorie des langages formels,... IA Approches théoriques et pratiques de l’intelligence artificielle Compétences linguistiques Anglaislu uniquement Françaislu, écrit et parlé Swahililu et parlé Centres d’intérêt Informatique théorique Théorie des graphes, Théorie des jeux, Théories de la complexité et de la calculabilité, Théorie des langages formels Intelligence artificielle Aspect fondamental de l’intelligence artificielle MathématiquesTopologie algébrique Philosophie Criticisme de Kant, Théories de Spinoza
KRAME Kadurha Étudiant Avenue Maman Christine Kyeshero/Goma-RDC H+243 977 468 801 Bkramedavid@gmail.com Expériences Octobre 2019 à Aujourd’hui Chercheur au CRES,Centre de Recherche et d’Expertise Scientifique, Goma-NK, RDCongo {Formateur en intelligence artificielle(Bases mathématiques du deep learning) {Informatique théorique et Intelligence artificielle. Décembre 2018 à Aujourd’hui Répétiteur permanent,Self-employed, Goma-NK, RDCongo {Répétiteur en connaissances de base {Répétiteur de mathématique chezElimu Nyumbanide Mars 2021 à Juin 2021. Octobre 2015 à Octobre 2016 Vice-président du groupe TUP,Techniciens Unis pour le Progrès, Bukavu-SK, RDCongo {Réflexions sur des projets d’électrification de la ville de Bukavu Formations Octobre 2016 – Janvier 2021 Graduat,ULPGL-Goma, Université Libre des Pays des Grands-Lacs Génie électrique et informatique Octobre 2010 – Juillet 2016 Diplôme d’Etat,ITFM-Bukavu, Institut Technique Fundi Maendeleo Électricité Industrielle Compétences en électricité, informatique et autres DomotiqueArduino, AppInventor, API ( Automates Programmables Industriels ) Siemens LatexSaisi des documents de qualité Python Tensorflow/Keras, ScikitLearn, Pandas,... Info. ThéoriqueThéorie des graphes, Théorie de la complexité, calculabilité, Logique, Théorie des langages formels,... IA Approches théoriques et pratiques de l’intelligence artificielle Compétences linguistiques Anglaislu uniquement Françaislu, écrit et parlé Swahililu et parlé Centres d’intérêt Informatique théorique Théorie des graphes, Théorie des jeux, Théories de la complexité et de la calculabilité, Théorie des langages formels Intelligence artificielle Aspect fondamental de l’intelligence artificielle MathématiquesTopologie algébrique Philosophie Criticisme de Kant, Théories de Spinoza
KRAME Kadurha Étudiant Avenue Maman Christine Kyeshero/Goma-RDC H+243 977 468 801 Bkramedavid@gmail.com Expériences Octobre 2019 à Aujourd’hui Chercheur au CRES,Centre de Recherche et d’Expertise Scientifique, Goma-NK, RDCongo {Formateur en intelligence artificielle(Bases mathématiques du deep learning) {Informatique théorique et Intelligence artificielle. Décembre 2018 à Aujourd’hui Répétiteur permanent,Self-employed, Goma-NK, RDCongo {Répétiteur en connaissances de base {Répétiteur de mathématique chezElimu Nyumbanide Mars 2021 à Juin 2021. Octobre 2015 à Octobre 2016 Vice-président du groupe TUP,Techniciens Unis pour le Progrès, Bukavu-SK, RDCongo {Réflexions sur des projets d’électrification de la ville de Bukavu Formations Octobre 2016 – Janvier 2021 Graduat,ULPGL-Goma, Université Libre des Pays des Grands-Lacs Génie électrique et informatique Octobre 2010 – Juillet 2016 Diplôme d’Etat,ITFM-Bukavu, Institut Technique Fundi Maendeleo Électricité Industrielle Compétences en électricité, informatique et autres DomotiqueArduino, AppInventor, API ( Automates Programmables Industriels ) Siemens LatexSaisi des documents de qualité Python Tensorflow/Keras, ScikitLearn, Pandas,... Info. ThéoriqueThéorie des graphes, Théorie de la complexité, calculabilité, Logique, Théorie des langages formels,... IA Approches théoriques et pratiques de l’intelligence artificielle Compétences linguistiques Anglaislu uniquement Françaislu, écrit et parlé Swahililu et parlé Centres d’intérêt Informatique théorique Théorie des graphes, Théorie des jeux, Théories de la complexité et de la calculabilité, Théorie des langages formels Intelligence artificielle Aspect fondamental de l’intelligence artificielle MathématiquesTopologie algébrique Philosophie Criticisme de Kant, Théories de Spinoza
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
L'occasion de faire le point sur l'actualité.
L'occasion de faire le point sur l'actualité.
Une sélection de photos du monde entier cette semaine :
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ??? Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
La science a un contrat avec la société. Le but de l'UNESCO est de promouvoir l'éducation, la connaissance et la formation des hommes et des femmes.
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".
Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie.
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). Toutefois, il refusera le titre de Mahatmadurant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avecKasturbaiqui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] satyagraha, dans un ouvrage intitulé "Hind Swaraj". L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’en- registrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indienShrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin.Unto This Lastest pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel.Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en dé- veloppement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directe- ment en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de lavérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. 10 Bibliographie [1] Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022. [2] La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022. [3] Louis Fischer.La Vie du Mahâtma Gandhi. Paris, 1983. [4] Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014. [5] Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan.La voie de la non-violence. Gallimard, 2004. [6] Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. 11
Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente.
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). Toutefois, il refusera le titre de Mahatmadurant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avecKasturbaiqui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] satyagraha, dans un ouvrage intitulé "Hind Swaraj". L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’en- registrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indienShrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin.Unto This Lastest pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel.Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en dé- veloppement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directe- ment en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de lavérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. 10 Bibliographie [1] Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022. [2] La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022. [3] Louis Fischer.La Vie du Mahâtma Gandhi. Paris, 1983. [4] Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014. [5] Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan.La voie de la non-violence. Gallimard, 2004. [6] Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. 11
Les luttes non violentes de Gandhi pour la défense des droits de l'homme ont eu une influence significative sur les mouvements de libération et de défense des droits civiques à travers le monde. Gandhi ne peut que se reconnaître dans l'expérience de Thoreau, emprisonné pour avoir refusé de payer le moindre impôt à un État esclavagiste et faisant la guerre au Mexique. La pensée de Gandhi est une source inépuisable de réflexion pour des millions de personnes.
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). Toutefois, il refusera le titre de Mahatmadurant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avecKasturbaiqui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] satyagraha, dans un ouvrage intitulé "Hind Swaraj". L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’en- registrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indienShrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin.Unto This Lastest pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel.Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en dé- veloppement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directe- ment en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de lavérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus.
Le chapitre 7 vous apprendra à ressentir profondément le besoin de changement que vous souhaitez. Vous apprendrez à associer un tel confort au statu quo dans lequel vous vivez et que vous n'avez plus envie d'y vivre. Les personnes les plus stressées sont celles qui sont perpétuellement à l'aise avec un sentiment d'urgence, occupées à répondre aux demandes des autres. Auteurs : La pratique modifie régulièrement notre humeur pour le mieux, réduisant ainsi le stress et l'anxiété. Auteur : la maîtrise de nos états d'esprit ne se fait pas dans le vide. Nous vivons dans un environnement qui nous défie constamment. Nous devons réaliser cela, et nous devenons ce sur quoi nous concentrons notre attention.
OSER CHANGER MARIE BÉRUBÉ ET MARC VACHON © IDEO 2019, un département de City Éditions pour l'édition française © Marie Bérubé et Marc Vachon Couverture : Shutterstock/Studio City ISBN : 9782824632308 Code Hachette : 61 6227 8 Collection dirigée par Christian English & Frédéric Thibaud Catalogues et manuscrits : city-editions.com/IDEO Conformément au Code de la Propriété Intellectuelle, il est interdit de reproduire intégralement ou partiellement le présent ouvrage, et ce, par quelque moyen que ce soit, sans l’autorisation préalable de l’éditeur. Dépôt légal : Mai 2019 À nos enfants Philippe, Nicola, Marc-Olivier et Marie-Noëlle, à leurs conjoints et à nos précieux petits-enfants Le seul fait de rêver est déjà très important. Je vous souhaite des rêves à n’en plus finir Et l’envie furieuse d’en réaliser quelques-uns. Je vous souhaite d’aimer ce qu’il faut aimer Et d’oublier ce qu’il faut oublier. Je vous souhaite des passions. Je vous souhaite des silences Je vous souhaite des chants d’oiseaux au réveil Et des rires d’enfants. Je vous souhaite de résister à l’enlisement, À l’indifférence, aux vertus négatives de notre époque. Je vous souhaite surtout d’être vous... JACQUES BREL Avant-propos Quand j’étais adolescent, je rêvais d’être un écrivain. J’aimais la littérature à laquelle m’avaient initié plusieurs professeurs passionnés. Vers la fin de mon lycée, alors que je devais choisir mes études universitaires, mon cœur balançait entre deux orientations : Lettres et Psychologie. J’ai finalement choisi cette dernière, ce que je n’ai jamais regretté, bien au contraire. Malgré tout, mon rêve d’écrire est resté intact. J’ai d’ailleurs beaucoup écrit tout au long de ma vie. Pour moi surtout, pour réfléchir et me comprendre, posant des mots sur papier afin de mettre de l’ordre dans mes sentiments et mes pensées. Pour les autres aussi, les mêmes mots me permettant cette fois, je le souhaitais en tout cas, d’aider en proposant des idées et des moyens de mieux vivre sa vie. Aujourd’hui, je réalise ce vieux rêve de publier un livre. Il ne met pas en scène des personnages sortis de mon imaginaire ni des péripéties inventées, comme dans le roman que je rêvais d’écrire plus jeune, mais il signifie encore plus pour moi. Dans les prochaines pages se trouvent en effet assemblés plusieurs des outils qui m’ont aidé à vivre, à progresser et à réaliser bien d’autres rêves. Il n’y a rien ici que je n’aie pas pratiqué, jour après jour, jusqu’à ce que cela fasse partie de mon identité. Ces moyens ont fonctionné pour moi, ils m’ont permis de me connaître et de m’épanouir, et je souhaite qu’il en soit ainsi pour vous, lecteur. Je crois, au plus profond de moi, que nous sommes tous beaucoup plus que ce que nous croyons être. Rêver permet justement d’entrevoir à l’avance qui nous sommes au mieux de ce que nous sommes. Et quand on s’investit, semaine après semaine, année après année, dans cette direction, ce n’est qu’une question de temps avant que le rêve ne se concrétise. Sa réalisation ne sera peut-être pas tout à fait à l’image de ce que nous imaginions au départ, mais notre rêve existera à sa manière à lui, et c’est ce qui importe. Ce livre a maintenant lui aussi sa propre existence. Qui que vous soyez, lecteur, je rêve maintenant qu’il vous aide à avancer d’un pas, qu’il vous donne l’impulsion nécessaire pour changer et qu’il déclenche en vous la même étincelle qu’ont provoquée en moi certaines personnes et certains livres à des moments importants de ma vie. Devenir tout ce que nous pouvons être, voilà, je crois, ce que l’on doit à ceux et celles qui en sont empêchés en raison d’une carence intellectuelle ou physique, ou de l’oppression qui les tient dans l’ignorance, ou de la famine qui les oblige à lutter à chaque instant juste pour survivre... Alors, osez changer et mettez résolument le cap sur vos rêves. Marc Vachon, 1 Changer de cap Avez-vous déjà rêvé de changer de cap à 180 degrés ou, à tout le moins, de changer un aspect important de votre vie ? Avez-vous déjà souhaité changer de carrière, lancer votre entreprise ou retourner aux études ? Vous arrive-t-il d’avoir envie d’aller vivre à la campagne, dans une autre ville, une autre région, un autre pays peut-être ? Si vous étiez certain de réussir, seriez-vous prêt à entreprendre un changement majeur dans votre vie ? Il nous arrive souvent, dans nos conférences, de poser des questions de ce genre à notre auditoire. À chaque fois, après quelques instants de réflexion, plus de la moitié des personnes qui le compose répond qu’elle rêve de changer de vie, ce que confirment d’ailleurs deux sondages plus scientifiques, l’un effectué à l’échelle du Canada 1 , et l’autre en France 2 . Vous pensez sans doute qu’il est bien facile de rêver, mais que c’est une tout autre affaire de réaliser ses rêves. Combien posent les gestes qu’il faut pour y arriver, selon vous ? 5 % ? 10 peut-être ? Croyez-le ou non, selon le sondage canadien, une personne sur quatre brave la peur, la résistance, l’inconnu pour entreprendre une démarche importante de changement qui va la conduire, selon ses dires, à être plus heureuse, plus à l’aise financièrement ou en meilleure santé. Résultats étonnants, et qui surprennent d’autant plus que nous baignons quotidiennement dans un climat d’inquiétude et de défaitisme qui n’a rien pour inspirer une démarche de changement. Pourtant, si vous ressentez au plus profond de vous-même ce désir de renouvellement, si vous êtes capable d’imagination et si vous avez le goût de reprendre contact avec vos rêves, ce livre est pour vous. Vous pourrez y puiser une démarche concrète et des outils utiles qui vont alimenter votre élan et vous stimuler dans la mise en œuvre des changements que vous souhaitez. Voici d’abord un bref tour d’horizon de ce qui vous attend dans les prochaines pages. Décider ce que l’on veut La toute première étape pour initier un changement, aussi simpliste qu’elle puisse paraître, consiste à décider ce que vous voulez précisément. Bien souvent, quand on écoute les gens parler, on apprend ce qu’ils ne veulent pas, et non ce qu’ils souhaitent vraiment. Pourtant, tous ceux qui écrivent sur le changement sont unanimes : ceux qui parviennent effectivement à changer se sont d’abord donné un but précis et bien déterminé. Définir ce que vous désirez, le plus précisément possible, surtout quand cela correspond à vos valeurs personnelles, donne une orientation à suivre, porte vers l’avant et mobilise l’esprit dans une direction précise. Un peu comme le pilote de ligne connaît sa destination avant de partir, puis réajuste sa trajectoire s’il en dévie, notre esprit a lui aussi besoin d’un objectif précis vers lequel porter ses efforts. Mais contrairement au pilote qui va aller là où le conduit son plan de vol, même si cette affectation ne l’intéresse pas vraiment, l’être humain a besoin d’une destination qui le mobilise et qui l’anime vraiment. D’où l’intérêt de réfléchir et de préciser avec soin ses objectifs. D’où l’importance aussi qu’ils soient cohérents, puisque plusieurs directions contradictoires créent en nous une confusion qui nous condamne fatalement à l’immobilisme. Pour vous aider à accomplir cette tâche malgré tout assez complexe et qui demande réflexion, nous vous proposons, aux chapitres 2 et 3, une méthode qui vous aidera à mener à bien cette première étape capitale. Vous aurez l’occasion d’y dresser un bilan de votre vie présente et de prendre la mesure de l’équilibre qui y règne, pavant ainsi la voie à une meilleure identification de vos rêves et à leur mise en œuvre effective. Développer son allié Quel est, selon vous, le pire ennemi qui vous attend sur la route de vos aspirations et des changements que vous souhaitez ? La pénurie de moyens ? Le manque de temps ? La difficulté à faire les pas qu’il faut, quand il le faut ? Les mouche-chandelles de tout acabit ? Un peu tout cela, sans aucun doute. Mais le principal adversaire avec lequel vous aurez maille à partir, c’est vous-même, ou plutôt une certaine image de vous- même qui sape peut-être votre énergie et sabote vos efforts. Devant un changement, cet ennemi se manifestera souvent par de petites phrases assassines comme : Tu ne seras pas capable ! C’est impossible ! On ne fait pas toujours ce qu’on veut dans la vie ! Tu n’as pas ce qu’il faut ! Ce n’est plus de ton âge ! Il faut savoir se contenter de ce qu’on a dans la vie ! Tu n’as pas le choix ! Tu vas tout détruire ! C’est trop difficile ! Tu es trop paresseux ! Tu le sais, tu lâches toujours avant la fin ! Tu n’as pas l’étoffe d’un gagnant ! Ces phrases viennent d’une perception que vous avez de vous-même, laquelle agit comme un frein au lieu de vous soutenir et de vous aider à avancer. Le potentiel que vous allez mobiliser pour introduire un changement dans votre vie et les résultats que vous allez obtenir font partie d’un processus qui prend racine dans une croyance, une idée préconçue. Si vous vous percevez comme incapable de faire quelque chose, allez-vous mobiliser toutes vos ressources ? Bien sûr que non ! Prenons deux exemples pour mieux comprendre. Une femme d’à peine soixante-cinq ans est convaincue que sa vie arrive maintenant à sa fin, que le meilleur est derrière elle et qu’elle devrait mettre de l’ordre dans ses affaires et se préparer à mourir. Son mari est décédé, ses enfants sont partis. Elle vend sa maison, s’installe dans un deux pièces et attend la fin, désœuvrée, triste et déprimée. Une septuagénaire, qui se perçoit elle-même comme une femme ordinaire ayant vécu une vie ordinaire, décide à soixante-quinze ans de se mettre à l’écriture et entreprend de rédiger son autobiographie. Elle soumet son manuscrit à un concours destiné aux auteurs du troisième âge, mais le jury lui explique que cette histoire n’intéressera personne d’autre que sa famille. Sans se laisser arrêter, après trois refus d’autant d’éditeurs, elle décide de publier son livre à compte d’auteur pour célébrer ses quatre-vingts ans. Prix du grand public au salon du livre de Montréal en 1996, Le Tour de ma vie en 80 ans 3 devient un best-seller québécois. L’auteur, Marguerite Lescop, récidivera deux ans plus tard avec un nouveau livre (En effeuillant la Marguerite 4 ), puis en publiera même un troisième. On croit souvent que ce sont les événements qui nous arrivent qui déterminent le genre de personne que nous sommes ou la vie que nous menons. Si c’était vraiment le cas, pourquoi le vieillissement a-t-il été, pour Marguerite Lescop, le point de départ d’un projet et d’une évolution réussis, alors que pour la personne précédente, il a eu des effets paralysants et même destructeurs ? Parce que ce ne sont pas les événements qui nous arrivent qui modèlent notre vie et ce que nous devenons, mais le sens que nous leur attribuons, l’interprétation que nous en donnons. Et ce sens est largement déterminé par les croyances que nous entretenons. Les croyances sont des conditionnements et elles se caractérisent par un sentiment de certitude qui nous fait agir et réagir de telle ou telle façon face à des événements ou à des personnes. Elles ne sont pas la réalité, mais nous agissons comme si elles l’étaient. Elles déterminent très largement notre perception de la réalité et conditionnent nos comportements. Quelles sont donc ces idées arrêtées que vous avez sur vous, sur vos capacités, sur vos habiletés, sur les autres, sur la vie, sur l’avenir, sur ce qu’il faut pour changer ? Ces idées vous aident-elles, ou agissent-elles plutôt comme un poison insidieux qui a tôt fait de vous décourager et de vous inciter à démissionner ? Après que nous aurons, dans les premiers chapitres, défini mentalement le genre de vie auquel vous aspirez, vous pourrez, au chapitre 4, comprendre le pouvoir immense dont sont investies les croyances, tant pour bâtir que pour détruire. Vous serez surtout invité à dresser l’inventaire de vos propres croyances, puis à départager celles qui vous paralysent et celles qui vous portent en avant. Vous apprendrez également comment vous défaire des conditionnements paralysants qui sabotent vos tentatives d’améliorer votre vie et celle des autres. Vous aurez enfin l’occasion, en vous inspirant de personnes qui ont réussi à donner un nouvel élan à leur vie, d’identifier les croyances qui seront vos meilleures alliées dans ce voyage que vous entreprenez. Trouver un levier pour agir Ce sont les petits et les grands pas que nous faisons, jour après jour, avec persévérance, qui vont nous mettre sur la route de nos aspirations et leur donner vie progressivement. Mais comment nous motiver concrètement à poser les gestes nécessaires ? Comme la vaste majorité des gens, nous attendons souvent pour agir de ne plus avoir le choix et que le feu soit déjà à la maison. Il est vrai que la souffrance demeure un très grand moteur de la motivation. Quand les événements nous obligent à secouer notre inertie, nous trouvons souvent beaucoup d’énergie et de force pour nous mettre en branle. Nous avons tous entendu des récits d’efforts surhumains accomplis par des personnes qui ne se seraient jamais crues capables de tels exploits et qui, dans la nécessité, ont mobilisé toutes leurs ressources parce qu’elles n’avaient pas d’autre choix. Mais pour introduire des changements majeurs dans notre réalité, il faut être proactif, c’est-à-dire prendre soi-même l’initiative, sans attendre d’avoir le couteau sur la gorge. Il faut en venir à percevoir le changement souhaité comme une urgence, comme une nécessité si grande qu’on ne peut faire autrement qu’agir. En somme, il faut reprogrammer son esprit de façon à associer plus de douleur au statu quo qu’au changement. Trop de personnes savent ce qu’elles veulent changer, mais ne passent pas à l’action, associant plus de souffrance au fait de changer qu’à leur situation actuelle qui, pourtant, ne les enchante pas non plus. J’aimerais changer d’emploi pour en trouver un plus satisfaisant, mais que va-t-il se passer si c’est encore pire ailleurs ? Et puis, de toute façon, il n’y a pas d’ouverture... J’aimerais introduire tel changement dans mon travail pour le rendre plus satisfaisant, mais comment vont réagir mes confrères, mon patron  ? De toute façon, la situation est supportable... J’aimerais bien perdre un peu de poids, mais ça va me demander tant d’efforts. De toute façon, je ne suis pas seul avec quelques kilos en trop... Admettons-le, on retire certains bénéfices secondaires à laisser inchangée une situation qui nous déplaît, ne serait-ce que celui de pouvoir s’en plaindre et de recevoir, en retour, l’attention de notre entourage. En ne bougeant pas, on évite également de déplaire aux autres et de perdre ainsi leur affection. Mais si l’on veut opérer un changement véritable dans sa vie, un changement qui dure, il faut absolument se défaire de ces vieux modèles de pensée ou d’action et adopter de nouvelles stratégies, plus efficaces, et qui nous donneront de plus grands bénéfices encore. Le chapitre 5 portera donc sur la motivation. Il vous apprendra comment vous servir de ce levier pour ressentir profondément la nécessité du changement que vous souhaitez. Vous apprendrez comment associer un tel inconfort au statu quo que vous vivez et n’aurez plus le goût de vous y complaire. Et pour donner encore plus de puissance à ce levier, vous verrez aussi comment associer des sensations plaisantes au changement, et le rendre encore plus attrayant, sinon irrésistible. De plus, comme notre motivation est très fortement associée à nos valeurs, nous prendrons tout le chapitre 6 pour en expliquer l’importance et vous aider à reconnaître les vôtres. Ce n’est pas un exercice inutile. Les valeurs auxquelles on adhère jouent en effet un tel rôle dans le processus de décision que, ne pas harmoniser ses rêves à ses valeurs, c’est se vouer irrémédiablement à l’échec. Et le temps ? La vie est une maladie mortelle sexuellement transmissible, dit avec humour Woody Allen. Nous sommes des êtres mortels et personne ne connaît la durée de sa vie. Nous mourrons peut-être demain, dans dix ans, dans soixante ans... Ce qui est sûr, c’est que le temps nous est compté. Une fois que nous avons décidé de l’orientation à donner à notre vie, tout ce qui nous sépare de notre objectif, c’est le temps. Ce qui nous en rapproche, ce sont les gestes que nous posons. Le chapitre 7 devrait stimuler encore plus votre goût de passer à l’action. En apprenant comment fixer des étapes intermédiaires, accessibles et réalistes, vous pourrez mieux ancrer vos rêves dans la réalité. Et comme le temps nous manque souvent pour ce qui compte vraiment, nous prendrons une partie de ce chapitre pour vous exposer une méthode qui vous permettra d’utiliser au mieux cette denrée précieuse qu’est le temps. Que vous travailliez au bureau ou à l’usine, dans un centre hospitalier ou dans une maison d’enseignement, à la maison ou ailleurs, il vous arrive certainement de vous retrouver, le soir, complètement épuisé, avec l’impression de n’avoir rien fait de valable et d’avoir plutôt passé votre journée à éteindre des feux. Tiraillé entre les téléphones, les rendez-vous, le travail qui s’accumule, les impératifs familiaux, les courses, le ménage, il vous reste peut-être juste assez d’énergie pour vous étendre devant le téléviseur et vous promener d’une chaîne à l’autre jusqu’au moment d’aller au lit. Il nous arrive à tous de ne pas distinguer les tâches qui comptent de celles qui comptent moins et de mettre tout ce qui se présente à nous sur le même plan. Nous manquons alors de temps et nous remettons à plus tard un tête-à- tête, une lecture, un voyage, un projet de livre, une soirée entre amis, un spectacle, un hobby, ou ce simple geste qui nous aurait fait avancer dans la réalisation d’un rêve. Le stress augmente, les insatisfactions s’accumulent, la mauvaise humeur s’installe, les problèmes digestifs et les troubles du sommeil apparaissent. Et pendant ce temps-là, la vie passe... Les personnes les plus stressées sont celles qui sont perpétuellement habitées par un sentiment d’urgence, occupées qu’elles sont à répondre aux demandes des autres. Elles ne parviennent pas à se réserver du temps pour des activités qui les réalisent, qui leur redonnent de l’énergie, qui les actualisent. Pourtant, il s’agit bien souvent d’une simple question d’emploi du temps. Non pas parce qu’un bon emploi du temps élimine les demandes, mais parce qu’il permet d’intégrer, dans ses priorités, des activités de l’ordre de l’épanouissement, sans attendre que ne survienne la maladie, l’épuisement, la crise existentielle... ou la retraite. Au chapitre 7, vous pourrez donc évaluer l’usage que vous faites de votre temps dans votre vie. Vous y apprendrez surtout comment l’utiliser en fonction de vos valeurs, comment programmer judicieusement vos activités et ne pas vous laisser paralyser par une tâche. Pour appuyer votre démarche de changement Tout changement, même souhaité, charrie avec lui son lot d’émotions, et certaines sont plutôt destructrices. Telles peuvent être la peur, l’inquiétude, l’insécurité, la colère, la frustration ou la démotivation, autant d’états d’esprit qui peuvent nous paralyser et mettre en péril nos efforts. Or, ceux qui parviennent à changer se caractérisent non seulement par leur capacité à ne pas se laisser arrêter par ces émotions, mais aussi par leur habileté à provoquer en eux des états d’esprit positifs, tels l’enthousiasme, l’entrain, la curiosité, la gratitude, l’assurance, l’humour, la passion, la détermination, la confiance en soi, la compassion. Pourquoi est-ce si vital ? Tout simplement parce que nos comportements dépendent directement de ces états d’esprit. Qu’il nous suffise de penser à ces journées où nous nous levons du mauvais pied et pendant lesquelles nous avons l’impression que rien ne fonctionne, que tout va de travers, que tout ce que nous entreprenons n’aboutit à rien. Certains vont y voir le signe du destin qui s’acharne sur eux, d’autres diront que les personnes qui les entourent font vraiment tout pour les contrarier, d’autres encore se plaindront de la température, du manque de sommeil ou de la mauvaise qualité de l’air. Toutes ces explications ne sont peut-être pas sans fondement. Mais elles laissent aussi supposer que l’individu est une victime passive des événements extérieurs et de ses émotions. Or il est possible, et même probable, que notre état d’esprit de départ ait lui-même conditionné nos comportements, pavant ainsi la voie à la lamentable journée que nous avons vécue. Toute personne qui désire entreprendre une démarche de changement doit prendre la responsabilité de ses états d’esprit et cesser de croire qu’ils dépendent des événements extérieurs. Si vous ne parvenez pas à maîtriser vos états d’esprit, vous êtes condamné à être contrôlé par eux, victime impuissante du temps qu’il fait, du résultat d’une partie de hockey ou de football, ou de l’humeur des gens qui vous entourent. Voilà, sans aucun doute, une habileté fondamentale à développer pour réaliser ses rêves. Bien sûr, modifier des états d’esprit paralysants pour en provoquer d’autres plus dynamisants demande plus qu’un simple acte de volonté. Mais nous croyons qu’il est possible d’y arriver. Nous allons donc vous proposer, aux chapitres 8 à 11, des stratégies qui vous aideront dans cette démarche. Que vous soyez en train de mettre en œuvre les changements dont vous avez rêvé, ou d’en subir d’autres que vous n’avez pas souhaités, ces moyens concrets vont faire toute la différence. Leur connaissance et leur application nous ont d’ailleurs beaucoup aidés nous-mêmes à réaliser nos propres rêves et à passer à travers des moments difficiles. La maîtrise de nos états d’esprit ne se réalise toutefois pas en vase clos. Nous vivons en effet dans un environnement qui nous sollicite sans cesse. À chaque seconde, des millions d’informations bombardent nos sens. Ne pouvant accorder son attention à tout en même temps, notre cerveau opère donc un choix, sélectionnant certaines informations et en éliminant d’autres. Or, et il faut en prendre conscience, nous devenons ce sur quoi nous concentrons notre attention. Pour mieux comprendre, voici un exemple. Vous êtes en vacances, dans votre jardin, avec quelques invités. Votre attention se promène librement et passe des gouttelettes d’eau qui perlent sur votre verre au papillon qui vole au-dessus des fleurs, pour revenir ensuite à la conversation enjouée de deux de vos amis. Bref, vous êtes détendu. À brûle-pourpoint, l’un d’eux vous demande si vous avez hâte de retourner travailler la semaine prochaine. Tout de suite, avant même de répondre, votre attention se déplace vers le lundi qui vient et votre cinéma intérieur vous présente, plus vraie que vraie, l’image de votre bureau qui déborde de dossiers tous plus urgents les uns que les autres. Voilà que vous ressentez un malaise au creux de l’estomac. En un instant, votre état d’esprit s’est modifié parce que vous avez centré votre attention sur une autre partie de la réalité qui, c’est le moins qu’on puisse dire, ne semble pas vous enthousiasmer vraiment. Peut-être même allez-vous perdre votre bonne humeur, blâmant plus tard ces malotrus d’avoir gâché votre journée de vacances. Ce genre de situation, qui nous arrive à tous, illustre bien l’importance qu’il faut accorder à ce sur quoi nous portons notre attention. Il témoigne aussi de la nécessité de protéger notre état d’esprit contre les « poisons » extérieurs qui le menacent. Les personnes qui réussissent à introduire des changements dans leur vie, ou à progresser à travers des moments difficiles, semblent décider consciemment à qui et à quoi elles veulent faire cadeau de leur attention. Leur état d’esprit en dépend et, par conséquent, leurs comportements. Ce savoir-faire, qui est au cœur même de toute démarche de changement, s’apprend. Nous vous montrerons donc comment faire le meilleur usage de votre cinéma intérieur et comment modifier vos façons de voir pour maintenir ces états d’esprit essentiels qui vont soutenir votre démarche et accélérer le processus du changement. Vous aurez, entre autres, l’occasion d’expérimenter un exercice qui, pratiqué régulièrement, modifie durablement notre humeur pour le mieux, diminuant ainsi le stress et l’anxiété. Les autres L’être humain étant un être social, nul changement important n’est possible sans la collaboration des autres. En fait, les personnes qui nous entourent constituent une des richesses les plus importantes dont nous disposons pour introduire un changement et cheminer dans la réalisation de nos rêves. Rien ne s’accomplit sans l’aide des personnes qui peuplent notre intimité ou que nous rencontrons à divers moments sur notre route. Si vous vous intéressez aux autres et savez écouter, si vous êtes doué de cette intelligence relationnelle qui permet de communiquer avec respect, vous disposez d’atouts majeurs dans la démarche que vous entreprenez. Ces avantages vous permettront même d’aider les autres à progresser avec vous. Au chapitre 11, nous nous arrêterons donc à une importante clé de la réussite : l’art de susciter un climat de confiance dans vos rapports avec les autres. Vous y apprendrez comment créer des ponts avec ceux qui vous entourent, comment aussi les recréer quand ils sont rompus, dans le respect des objectifs et des valeurs de chacun. Et surtout, vous y apprendrez une voie royale vers la réalisation de ses rêves. Nous tenons enfin à vous présenter une dernière clé sans laquelle aucun accomplissement n’est possible : la flexibilité et la capacité de lâcher prise. Plutôt que d’abandonner ou de se décourager, celui qui veut aller de l’avant doit posséder cette habileté à faire le deuil de manières de faire habituelles, quand elles ne donnent pas les résultats voulus, pour explorer de nouvelles avenues. Dans le chapitre 12, vous comprendrez pourquoi il est normal d’éprouver des difficultés à lâcher prise. Plus encore, vous apprendrez comment vous pouvez y arriver sans devoir sacrifier votre objectif. De rêveur à acteur Voilà donc un aperçu de ce voyage que vous vous apprêtez à entreprendre avec nous. Si vous êtes prêt à introduire des changements dans votre vie et à découvrir de nouvelles facettes de votre personnalité, vous vous apprêtez à vivre une magnifique aventure qui fait que la vie vaut la peine d’être vécue. C’est un grand privilège que vous nous accordez de nous laisser vous accompagner tout au long de ce périple, sur cette route où vous allez découvrir, c’est notre conviction la plus profonde, que vous êtes tellement plus que ce que vous croyez être. Passer de rêveur à acteur dans sa propre histoire est, sans aucun doute, un grand plaisir de cette existence et un des fondements d’une vie épanouie et heureuse. Laissez donc monter en vous l’excitation que l’on ressent avant de partir pour un long voyage de découvertes : vous ne serez plus jamais le même, c’est promis. 1. Isabelle Pauzé, « Changer de cap », in Sélection du Reader’s Digest, Canada, novembre 2005. 2. Ghislain de Montalembert, « 79 % des Français en rêvent : changer de vie ! », Le Figaro magazine, 17 avril 2009. 3. Marguerite Lescop, Le Tour de ma vie en 80 ans, autobiographie, Éditions Lescop, 1996. 4. Id., En effeuillant la Marguerite, autobiographie, Éditions Lescop, 1998.